Conforme a aprendizagem de máquina se aproxima do uso comum, as práticas de testes automatizados de modelos, validação de dados de treinamento e observação do desempenho dos modelos em produção estão amadurecendo. Cada vez mais, essas verificações automáticas têm sido incorporadas em pipelines de entrega contínua ou usadas com modelos em produção, para detectar desvios e desempenho do modelo. Um conjunto de ferramentas com capacidades similares ou sobrepostas emergiu para lidar com as várias etapas desse processo. (Giskard e Evidently também aparecem neste volume). Deepchecks é outra dessas ferramentas, e está disponível como uma biblioteca Python de código aberto, podendo ser invocada de um pipeline de codificação através de um grande conjunto de APIs. Um recurso singular dessa ferramenta é sua capacidade de lidar com dados tabulares e imagens, com um módulo para linguagem de dados na versão alfa. No momento, nenhuma ferramenta sozinha é capaz de oferecer a variedade de testes e barreiras em todo o pipeline de ML. Recomendamos avaliar Deepchecks para o seu nicho de aplicação específico.