Publicado : Nov 20, 2019
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar.
Entender más
Nov 2019
Evaluar
Fairseq es un conjunto de herramientas de modelado s2s (sequence-to-sequence) desarrollado por Facebook AI Research que permite a investigadoras/es y desarrolladoras/es entrenar modelos personalizados para traducción, síntesis de texto, modelado de lenguaje y otras tareas de procesamiento de lenguaje natural. Es una buena elección para usuarios de PyTorch. Provee referencias de implementación para varios modelos s2s (sequence-to-sequence), admite distribuir entrenamientos a través de múltiples GPUs y máquinas. Es muy extensible y dispone de varios modelos pre-entrenados, incluyendo RoBERTa, una versión optimizada de BERT.