Agentes autônomos com tecnologia LLM estão evoluindo além de agentes únicos e sistemas multi-agentes estáticos com o surgimento de frameworks como o Autogen e o CrewAI. Essa técnica permite que desenvolvedoras dividam uma atividade complexa em várias tarefas menores realizadas por agentes, onde cada agente é designado a uma função específica. Desenvolvedoras podem utilizar ferramentas pré-configuradas para realizar a tarefa, e os agentes conversam entre si e orquestram o fluxo. A técnica ainda está em estágio inicial de desenvolvimento. Em nossos experimentos até agora, nossos times têm encontrado problemas como agentes entrando em loops contínuos e comportamento descontrolado. Bibliotecas como LangGraph oferecem um maior controle das interações do agente com a habilidade de definir o fluxo como um gráfico. Se você utiliza esta técnica, nós sugerimos implementar mecanismos de segurança contra falhas, incluindo timeouts e supervisão humana.
Agentes autônomos impulsionados por LLM estão evoluindo além de agentes isolados e sistemas multiagentes estáticos com o surgimento de frameworks como o Autogen e o CrewAI. Essas estruturas permitem que as pessoas usuárias definam agentes com funções específicas, atribuam tarefas e habilitem a colaboração entre agentes para concluir essas tarefas por meio de delegação ou conversação. Semelhante aos sistemas de agente único que surgiram anteriormente, como o AutoGPT, agentes individuais podem dividir tarefas, utilizar ferramentas pré-configuradas e solicitar intervenção humana. Embora ainda esteja nos estágios iniciais de desenvolvimento, esta área está se desenvolvendo rapidamente e tem um potencial empolgante para exploração.
À medida que o desenvolvimento de modelos de linguagem de grande porte (LLMs) continua, o interesse em construir agentes de IA autônomos é forte. AutoGPT, GPT-Engineer e BabyAGI são todos exemplos de agentes autônomos impulsionados por LLM que fomentam um LLM subjacente para entender o objetivo que lhes foi dado e trabalhar para alcançá-lo. O agente lembra de quanto progresso fez, usa o LLM para raciocinar sobre o que fazer a seguir, toma ações e entende quando o objetivo foi alcançado. Isso é frequentemente conhecido como raciocínio de cadeia de pensamento — e pode realmente funcionar. Uma de nossas equipes implementou um chatbot de atendimento ao cliente como um agente autônomo. Se o bot não conseguir atingir o objetivo da cliente, ele reconhece sua própria limitação e redireciona a cliente para um humano. Essa abordagem está definitivamente no início de seu ciclo de desenvolvimento: agentes autônomos frequentemente sofrem de uma alta taxa de falha e incorrem em taxas de serviços de IA caras, e pelo menos uma startup de IA se afastou de uma abordagem baseada em agente.