Los agentes autónomos impulsados por modelos de lenguaje a gran escala (LLM) están evolucionando más allá de agentes individuales y sistemas multiagente estáticos con la aparición de frameworks como Autogen y CrewAI. Esta técnica permite a los desarrolladores descomponer una actividad compleja en varias tareas más pequeñas, realizadas por agentes a los que se les asigna un rol específico. Los desarrolladores pueden utilizar herramientas preconfiguradas para ejecutar las tareas, mientras que los agentes se comunican entre sí y orquestan el flujo de trabajo. La técnica aún se encuentra en sus primeras etapas de desarrollo. En nuestros experimentos hasta ahora, nuestros equipos han encontrado problemas como agentes que entran en bucles continuos y comportamientos descontrolados. Librerías como LangGraph ofrecen un mayor control sobre las interacciones de los agentes, permitiendo definir el flujo como un gráfico. Si decides utilizar esta técnica, sugerimos implementar mecanismos a prueba de fallos, como límites de tiempo y supervisión humana.
Los agentes autónomos impulsados por LLMs (Modelos de Lenguaje Grandes, LLM por sus siglas en inglés) están evolucionando más allá de sistemas de un solo agente y sistemas multiagente estáticos con la aparición de frameworks como Autogen y CrewAI . Estos frameworks permiten a los usuarios definir agentes con roles específicos, asignarles tareas y permiten que los agentes colaboren para completar esas tareas mediante la delegación o la conversación. De manera similar a los sistemas de un solo agente que surgieron antes, como AutoGPT , los agentes individuales pueden descomponer tareas, utilizar herramientas preconfiguradas y solicitar opinión humana. Aunque todavía se encuentra en sus primeras fases de desarrollo, este área se está desarrollando rápidamente y tiene un gran potencial para la exploración.
A medida que continúa el desarrollo de grandes modelos de lenguaje, existe un gran interés en crear agentes de IA autónomos. AutoGPT, GPT-Engineer y BabyAGI son ejemplos de agentes autónomos impulsados por LLM que desarrollan un LLM subyacente para comprender el objetivo que se les ha asignado y trabajar para lograrlo. El agente recuerda hasta dónde ha progresado, utiliza el LLM para razonar sobre qué hacer a continuación, toma acciones y comprende cuándo se ha cumplido el objetivo. Esto a menudo se conoce como razonamiento en cadena de pensamientos y, de hecho, puede funcionar. Uno de nuestros equipos implementó un chatbot de atención al cliente como agente autónomo. Si el chatbot no puede lograr el objetivo del cliente, reconoce su propia limitación y, en su lugar, redirige al cliente hacia un humano. Este enfoque definitivamente se encuentra en una etapa temprana de su ciclo de desarrollo: los agentes autónomos a menudo sufren una alta tasa de fallas e inciden en costosas tarifas de servicios de IA, y al menos una startup de IA se ha alejado del enfoque basado en agentes.