Como muitas outras na indústria de software, temos explorado as ferramentas de IA, em rápida evolução, que possam nos ajudar a escrever código. Temos visto muita gente alimentar o ChatGPT com uma implementação e pedir que gere testes para aquele código. Mas como acreditamos muito no desenvolvimento orientado a testes, e nem sempre queremos alimentar um modelo externo com nosso código de implementação potencialmente confidencial, uma de nossas experiências nesse espaço é uma técnica que chamamos Desenvolvimento de testes primeiro auxiliado por IA. Nessa abordagem, fazemos com que o ChatGPT gere testes para nós, e então uma pessoa desenvolvedora implementa a funcionalidade. Especificamente, primeiro descrevemos a stack de tecnologias e os padrões de design que estamos usando, em um "fragmento" de prompt que é reutilizável para muitos casos de uso. Então descrevemos a funcionalidade específica que desejamos implementar, incluindo os critérios de aceitação. Baseado nisso tudo, pedimos ao ChatGPT para gerar um plano de implementação para a funcionalidade, usando nosso estilo de arquitetura e nossa stack de tecnologias. Após verificar o plano de implementação, pedimos ao modelo que gere testes para nossos critérios de aceitação. Essa abordagem tem funcionado surpreendentemente bem para nós: ela exigiu que a equipe desenvolvesse uma descrição sucinta de seu estilo de arquitetura e ajudou pessoas desenvolvedoras iniciantes e novos membros da equipe a programarem funcionalidade de maneira alinhada ao estilo existente da equipe. A maior desvantagem da abordagem é que, apesar de não fornecermos nosso código-fonte ao modelo, ainda assim o alimentamos com informações potencialmente sensíveis, como nossa stack de tecnologias e descrições de funcionalidades. As equipes devem se assegurar de trabalhar com suas assessoras legais, para evitar qualquer problema de propriedade intelectual, pelo menos até que uma versão "corporativa" dessas ferramentas de IA esteja disponível.