LLM Guardrails é um conjunto de diretrizes, políticas ou filtros projetados para evitar que modelos de linguagem de grande porte (LLMs) gerem conteúdo prejudicial, enganoso ou irrelevante. Os guardrails também podem ser usados para proteger aplicações de LLMs contra usuárias mal-intencionadas que tentem manipular o sistema com técnicas como a manipulação de entrada. Elas atuam como uma rede de segurança, estabelecendo limites para o modelo ao processar e gerar conteúdo. Existem alguns frameworks emergentes nesse espaço, como o NeMo Guardrails, Guardrails AI e Aporia Guardrails, que nossas equipes têm achado úteis. Recomendamos que toda aplicação que utilize LLMs tenha guardrails implementados e que suas regras e políticas sejam continuamente aprimoradas. Eles são cruciais para construir aplicações de chat com LLMs que sejam responsáveis e confiáveis.