Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Apr 03, 2024
NÃO ENTROU NA EDIÇÃO ATUAL
Este blip não está na edição atual do Radar. Se esteve em uma das últimas edições, é provável que ainda seja relevante. Se o blip for mais antigo, pode não ser mais relevante e nossa avaliação pode ser diferente hoje. Infelizmente, não conseguimos revisar continuamente todos os blips de edições anteriores do Radar. Saiba mais
Apr 2024
Avalie ?

Continuamos alertando contra o fine-tune apressado de modelos de linguagem de grande porte (LLMs) a menos que seja absolutamente crítico - isso acarreta custos e demanda alto nível de expertise. Porém, acreditamos que a LLaMA-Factory pode ser útil quando o fine-tuning for necessário. É uma estrutura de código aberto e fácil de usar para fine-tuning e treinamento de LLMs. Com suporte para LLaMA, BLOOM, Mistral, Baichuan, Qwen e ChatGLM, torna o conceito complexo de fine-tuning relativamente acessível. Nossos times utilizaram o ajuste LLaMA-Factory's LoRA tuning com sucesso em um modelo LLaMA 7B. Portanto, se você precisa fazer fine-tuning, esta estrutura merece ser avaliada.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores