No ano passado, vimos uma mudança no interesse em torno de aprendizado de máquina e de redes neurais profundas em particular. Até agora, o desenvolvimento de ferramentas e técnicas foi impulsionado pelo entusiasmo com as notáveis capacidades desses modelos. Atualmente, porém, há uma preocupação crescente de que esses modelos possam causar danos não-intencionais. Por exemplo, um modelo pode ser treinado para tomar decisões de crédito inadvertidamente, simplesmente excluindo pessoas candidatas desfavorecidas. Felizmente, estamos vendo um interesse crescente em testes de viés ético , que ajudarão a apontar decisões potencialmente prejudiciais. Ferramentas como lime, AI Fairness 360 ou What-If Tool podem ajudar a descobrir imprecisões resultantes de grupos sub-representados em dados de treinamento, enquanto ferramentas de visualização como Google Facets ou Facets Dive podem ser usadas para descobrir subgrupos em um corpus de dados de treinamento. Utilizamos lime (local interpretable model-agnostic explanations, ou explicações independentes de modelo interpretáveis localmente), além desta técnica, para entender as previsões de qualquer classificador de aprendizado de máquina e o que os classificadores (ou modelos) estão fazendo.
No último ano, temos visto uma mudança no interesse pelo aprendizado de máquina e redes neurais profundas, em particular. Até agora, o desenvolvimento de ferramentas e técnicas tem sido guiado pela empolgação gerada pelas capacidades notáveis desses modelos. Atualmente, contudo, há uma preocupação crescente de que esses modelos possam causar prejuízo não-intencional. Por exemplo, um modelo pode ser treinado para tomar decisões de crédito lucrativas simplesmente excluindo pessoas candidatas desfavorecidas. Felizmente, estamos vendo um interesse crescente em testes de viés ético , que ajudarão a descobrir decisões potencialmente prejudiciais. Ferramentas, tais como lime, AI Fairness 360 ou What-If podem ajudar a descobrir imprecisões que resultam de grupos sub-representados em dados de treinamento, enquanto ferramentas de visualização como Google Facets ou Facets Dive podem ser usadas para descobrir subgrupos dentro de um conjunto de dados de treinamento. Contudo, esse é um campo em desenvolvimento e esperamos que os padrões e práticas específicas para testes de viés ético surjam com o tempo.