Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Apr 26, 2023
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender más
Apr 2023
Evaluar ?

nanoGPT es un framework para entrenamiento y fine-tuning de transformadores generativos preentrenados de tamaño medio (GPT). El autor, Andrej Karpathy, hace referencia a las publicaciones Attention is All You Need y OpenAI's GPT-3 para construir un GPT desde cero usando PyTorch. Con todo el revuelo en torno a la IA generativa, queremos destacar nanoGPT por su simplicidad y enfoque en articular claramente los componentes básicos de la arquitectura GPT.

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores