Confiabilidade e previsibilidade
A maneira como interagimos com os computadores hoje é previsível. Por exemplo, quando construímos sistemas de software, um engenheiro senta-se e escreve o código, dizendo ao computador exatamente o que fazer, passo a passo. Com um processo de IA agente, não fornecemos instruções passo a passo. Em vez disso, lideramos com o resultado que queremos alcançar e o agente determina como atingir esse objetivo. O agente de software possui um certo grau de autonomia, o que significa que pode haver alguma aleatoriedade nas saídas.
Vimos um problema semelhante com ChatGPT e outros sistemas generativos de IA baseados em LLM quando eles foram lançados. Mas, nos últimos dois anos, assistimos a melhorias consideráveis na consistência dos resultados generativos da IA, graças ao ajuste fino, aos ciclos de feedback humano e aos esforços consistentes para treinar e refinar estes modelos. Precisaremos colocar um nível semelhante de esforço para minimizar a aleatoriedade dos sistemas de IA de agentes para torná-los mais previsíveis e confiáveis.
Privacidade e segurança de dados
Algumas empresas hesitam em usar IA de agência devido a questões de privacidade e segurança, que são semelhantes às da IA generativa, mas podem ser ainda mais preocupantes. Por exemplo, quando um usuário se envolve com um modelo de linguagem grande, cada bit de informação fornecido ao modelo é incorporado a esse modelo. Não há como voltar atrás e pedir para “esquecer” essa informação. Alguns tipos de ataque à segurança, como a injeção imediata, tiram vantagem disso tentando fazer com que o modelo vaze informações proprietárias. Como os agentes de software têm acesso a muitos sistemas diferentes com um elevado nível de autonomia, existe um risco acrescido de que possam expor dados privados de mais fontes.