Publicado : Apr 03, 2024
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar.
Entender más
Apr 2024
Evaluar
Ollama Es una herramienta de código abierto para ejecutar y gestionar modelos grandes de lenguaje (LLMs) en tu entorno local de desarrollo. Anteriormente, hemos hablado de los beneficios de LLMs auto-hospedados, y nos complace ver que el ecosistema ha madurado con herramientas como Ollama. Soporta distintos modelos populares — incluyendo LLaMA-2, CodeLLaMA, Falcon y Mistral — que puede descargarse y ejecutarse localmente. Una vez descargados, puedes usar la línea de comando, API o SDK para interactuar con el modelo y ejecutar tus tareas. Estamos evaluando Ollama y viendo los primeros éxitos a medida que mejora la experiencia de los desarrolladores al trabajar LLMs en entornos locales.