Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Última actualización : May 19, 2020
NO EN LA EDICIÓN ACTUAL
Este blip no está en la edición actual del Radar. Si ha aparecido en una de las últimas ediciones, es probable que siga siendo relevante. Si es más antiguo, es posible que ya no sea relevante y que nuestra valoración sea diferente hoy en día. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender más
May 2020
Probar ?

En el último año, hemos visto un cambio de interés acerca del machine-learning y en redes neuronales profundas en particular. Hasta ahora, el desarrollo de herramientas y técnicas ha sido impulsado por por el entusiasmo acerca de las extraordinarias capacidades de estos modelos. Actualmente, sin embargo, hay una preocupación creciente de que estos modelos puedan causar daño accidentalmente. Por ejemplo, un modelo podría ser entrenado para, inadvertidamente, tomar decisiones de crédito rentables, simplemente excluyendo aspirantes desfavorecidos. Afortunadamente, estamos viendo un creciente interés en pruebas de sesgo ético que pueden ayudar a descubrir decisiones potencialmente dañinas. Herramientas como lime, AI Fairness 360 o What-If Tool pueden ayudar a descubrir imprecisiones que puedan resultar en grupos de baja representados en datos de entrenamiento, y herramientas de visualización como Google Facets o Facets Dive puede ser usada para descubrir subgrupos dentro de un cuerpo de datos de entrenamiento. Hemos usado lime (local interpretable model-agnostic explanations) adicionalmente a estas técnicas para poder entender las predicciones de cualquier clasificador de aprendizaje automático y que están haciendo estos clasificadores (o modelos).

Nov 2019
Evaluar ?

Durante el año pasado, hemos visto cambios en el interés en torno al aprendizaje automático y redes neuronales profundas en particular. Hasta ahora, el desarrollo de herramientas y técnicas ha sido impulsado por la emoción de las capacidades singulares de estos modelos. Sin embargo, actualmente existe una preocupación creciente de que estos modelos pueden causar daño involuntario. Por ejemplo, un modelo puede ser entrenado para hacer decisiones de crédito rentable al excluir simplemente a solicitantes desfavorecidos. Afortunadamente, estamos viendo un interés creciente en pruebas de sesgo ético que ayudará a descubrir decisiones potencialmente dañinas. Herramientas como lime, AI Fairness 360 o What-if pueden ayudar a descubrir imprecisiones que resultan de grupos subrepresentados en datos de entrenamiento y herramientas de visualización tales como Google Facets o Facets Dive pueden ser usados para descubrir subgrupos dentro de un corpus de datos de entrenamiento. No obstante, este es un campo en desarrollo y esperamos que normas y prácticas específicas sobre pruebas de sesgo ético surjan con el tiempo.

Publicado : Nov 20, 2019

Descarga el PDF

 

 

 

English | Español | Português | 中文

Suscríbete al boletín informativo de Technology Radar

 

 

 

 

Suscríbete ahora

Visita nuestro archivo para leer los volúmenes anteriores