Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Apr 03, 2024
NÃO ENTROU NA EDIÇÃO ATUAL
Este blip não está na edição atual do Radar. Se esteve em uma das últimas edições, é provável que ainda seja relevante. Se o blip for mais antigo, pode não ser mais relevante e nossa avaliação pode ser diferente hoje. Infelizmente, não conseguimos revisar continuamente todos os blips de edições anteriores do Radar. Saiba mais
Apr 2024
Avalie ?

O LLaVA (Large Language and Vision Assistant - Assistente de Linguagem e Visão Ampla) é um modelo multimodal de grande porte e código aberto que conecta um codificador de visão e um modelo de linguagem de grande porte (LLM) para compreensão visual e linguística de uso geral. A alta proficiência do LLaVA em seguir instruções o posiciona como um forte concorrente entre os modelos de Inteligência Artificial multimodais. A versão mais recente, o LLaVA-NeXT, permite melhor desempenho em tarefas de resposta a perguntas. Entre os modelos open-source para auxílio de linguagem e visão, o LLaVA é uma opção promissora ao ser comparado com o GPT-4 Vision. Nossas equipes têm experimentado o LLaVA para responder a perguntas visuais.

Baixe o PDF

 

 

 

English | Español | Português | 中文

Inscreva-se para receber o boletim informativo Technology Radar

 

 

Seja assinante

 

 

Visite nosso arquivo para acessar os volumes anteriores