Considere um sistema com dados incorporados da Tesla abrangendo o histórico da empresa. Sem mecanismos eficientes de fragmentação e recuperação, um analista financeiro perguntando sobre lucros ou um analista de risco procurando informações sobre processos judiciais receberia uma resposta gerada a partir de uma mistura esmagadora de dados irrelevantes. Esses dados podem incluir notícias não relacionadas sobre CEOs e compras de celebridades. O sistema produziria respostas vagas, incompletas ou até mesmo alucinadas, forçando os usuários a desperdiçar um tempo valioso classificando manualmente os resultados para encontrar as informações de que realmente precisam e, em seguida, validar sua precisão.
Os sistemas baseados em agentes RAG normalmente atendem a vários fluxos de trabalho, e os modelos de recuperação e LLMs precisam ser adaptados aos seus requisitos exclusivos. Por exemplo, analistas financeiros precisam de saída focada em lucros, enquanto analistas de risco exigem informações sobre processos judiciais e ações regulatórias. Cada fluxo de trabalho exige saída ajustada aderindo a léxicos e formatos específicos. Embora algum ajuste fino do LLM seja necessário, o sucesso aqui depende principalmente da qualidade dos dados e da eficácia do modelo de recuperação para filtrar pontos de dados específicos do fluxo de trabalho dos dados de origem e alimentá-los ao LLM.
Por fim, uma abordagem de agentes de IA bem projetada para a automação de fluxos de trabalho de conhecimento complexos pode ajudar a mitigar riscos com implantações de RAG ao dividir grandes casos de uso em “tarefas a serem feitas” discretas, facilitando a garantia de relevância, contexto e ajuste fino eficaz em cada estágio do sistema.