Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Publicado : Apr 26, 2023
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender más
Apr 2023
Evaluar ?

A medida que el aprendizaje automático se abre camino en la comunidad, las prácticas están creciendo en torno a modelos de pruebas automatizadas, validación de los datos de entrenamiento y modelos de observabilidad del rendimiento en producción. Cada vez más, estas verificaciones automatizadas están siendo integradas en procesos de entrega continua o se ejecutan contra modelos de producción para medir el rendimiento de dichos modelos y detectar desviaciones. Han surgido algunas herramientas con capacidades parecidas o que se superponen para gestionar distintos pasos de este proceso (Giskard y Evidently también se han incluido en este volumen). Deepchecks es otra de estas herramientas que está disponible como biblioteca Python de código abierto y puede ser invocada desde el código del pipeline a través de un amplio conjunto de APIs. Una característica exclusiva de esta herramienta es su capacidad para manejar datos tanto tabulares como de imágenes, con un módulo para datos lingüísticos que actualmente se encuentra en fase alfa. Por el momento, ninguna herramienta puede gestionar por sí sola la variedad de pruebas y controles de seguridad de todo el proceso de ML. Recomendamos evaluar Deepchecks para su nicho de aplicación en particular.

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores