Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Apr 03, 2024
NÃO ENTROU NA EDIÇÃO ATUAL
Este blip não está na edição atual do Radar. Se esteve em uma das últimas edições, é provável que ainda seja relevante. Se o blip for mais antigo, pode não ser mais relevante e nossa avaliação pode ser diferente hoje. Infelizmente, não conseguimos revisar continuamente todos os blips de edições anteriores do Radar. Saiba mais
Apr 2024
Avalie ?

Ollama é uma ferramenta código aberto para executar e gerenciar modelos de linguagem de grande porte (LLMs) na sua máquina local. Anteriormente, discutimos os benefícios dos LLMs auto-hospedados, e é animador ver o ecossistema amadurecer com ferramentas como o Ollama. Ele suporta diversos modelos populares — incluindo LLaMA-2, CodeLLaMA, Falcon e Mistral — que você pode baixar e executar localmente. Uma vez baixado, é possível interagir com o modelo e executar tarefas através da CLI, API ou SDK. Estamos avaliando o Ollama e observando sucessos iniciais, pois ele melhora a experiência das pessoas desenvolvedoras ao trabalhar com LLMs localmente.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores