Las redes neuronales profundas han sido tomadas en cuenta por su precisión en una amplia variedad de problemas. Alcanzados los suficientes datos de capacitación y la selección de una apropiada topología, estos modelos alcanzan y exceden las capacidades humanas en selectos campos de problemas. Sin embargo, resultan ser por naturaleza opacos. Aunque algunas partes de los modelos se pueden reutilizar mediante el aprendizaje por transferencia, pocas veces somos capaces de atribuir algún significado comprensible para los humanos a estos elementos. Por el contrario, un modelo explicativo es aquel que nos permite entender cómo se tomó cierta decisión. Por ejemplo, un árbol de decisión produce una cadena de inferencia que describe el proceso de clasificación. La explicabilidad se vuelve crítica en ciertas industrias reguladas o cuando nos preocupa el impacto ético de una decisión. A medida que estos modelos se adoptan más ampliamente en sistemas críticos del negocio es importante tomar en cuenta la explicabilidad como un criterio relevante al seleccionar un modelo. A pesar de su poder, las redes neuronales podrían no ser una elección acertada cuando existen estrictos requerimientos de explicabilidad.