À medida que organizações buscam formas de fazer com que os modelos de linguagem de grande porte (LLMs) funcionem no contexto de seus produtos, domínios ou conhecimento organizacional, estamos vendo uma corrida para o fine-tuning de LLMs. Embora o fine-tuning possa ser uma ferramenta poderosa para aumentar a especificidade de tarefas em um caso de uso, em muitos casos ele não é necessário. Um dos erros mais comuns nessa pressa pelo fine-tuning é tentar tornar um aplicativo baseado em LLM ciente de conhecimento e fatos específicos ou do código-base de uma organização. Na grande maioria desses casos, usar uma forma de geração aumentada por recuperação (RAG) oferece uma solução melhor e uma relação custo-benefício mais vantajosa. O fine-tuning requer recursos computacionais consideráveis e expertise, além de introduzir desafios ainda maiores relacionados a dados sensíveis e proprietários do que a RAG. Há também o risco de subajuste (underfitting), quando não há dados suficientes para o fine-tuning, ou, menos frequentemente, de superajuste (overfitting), quando há dados em excesso, o que resulta em um desbalanceamento na especificidade de tarefas que você precisa. Analise atentamente esses prós e contras e considere as alternativas antes de se apressar para fazer o fine-tuning de um LLM para o seu caso de uso.