En el último año, hemos visto un cambio de interés acerca del machine-learning y en redes neuronales profundas en particular. Hasta ahora, el desarrollo de herramientas y técnicas ha sido impulsado por por el entusiasmo acerca de las extraordinarias capacidades de estos modelos. Actualmente, sin embargo, hay una preocupación creciente de que estos modelos puedan causar daño accidentalmente. Por ejemplo, un modelo podría ser entrenado para, inadvertidamente, tomar decisiones de crédito rentables, simplemente excluyendo aspirantes desfavorecidos. Afortunadamente, estamos viendo un creciente interés en pruebas de sesgo ético que pueden ayudar a descubrir decisiones potencialmente dañinas. Herramientas como lime, AI Fairness 360 o What-If Tool pueden ayudar a descubrir imprecisiones que puedan resultar en grupos de baja representados en datos de entrenamiento, y herramientas de visualización como Google Facets o Facets Dive puede ser usada para descubrir subgrupos dentro de un cuerpo de datos de entrenamiento. Hemos usado lime (local interpretable model-agnostic explanations) adicionalmente a estas técnicas para poder entender las predicciones de cualquier clasificador de aprendizaje automático y que están haciendo estos clasificadores (o modelos).
Durante el año pasado, hemos visto cambios en el interés en torno al aprendizaje automático y redes neuronales profundas en particular. Hasta ahora, el desarrollo de herramientas y técnicas ha sido impulsado por la emoción de las capacidades singulares de estos modelos. Sin embargo, actualmente existe una preocupación creciente de que estos modelos pueden causar daño involuntario. Por ejemplo, un modelo puede ser entrenado para hacer decisiones de crédito rentable al excluir simplemente a solicitantes desfavorecidos. Afortunadamente, estamos viendo un interés creciente en pruebas de sesgo ético que ayudará a descubrir decisiones potencialmente dañinas. Herramientas como lime, AI Fairness 360 o What-if pueden ayudar a descubrir imprecisiones que resultan de grupos subrepresentados en datos de entrenamiento y herramientas de visualización tales como Google Facets o Facets Dive pueden ser usados para descubrir subgrupos dentro de un corpus de datos de entrenamiento. No obstante, este es un campo en desarrollo y esperamos que normas y prácticas específicas sobre pruebas de sesgo ético surjan con el tiempo.