Confiabilidade e previsibilidade

A maneira como interagimos com os computadores hoje é previsível. Por exemplo, quando construímos sistemas de software, um engenheiro senta-se e escreve o código, dizendo ao computador exatamente o que fazer, passo a passo. Com um processo de IA agente, não fornecemos instruções passo a passo. Em vez disso, lideramos com o resultado que queremos alcançar e o agente determina como atingir esse objetivo. O agente de software possui um certo grau de autonomia, o que significa que pode haver alguma aleatoriedade nas saídas.

Vimos um problema semelhante com ChatGPT e outros sistemas generativos de IA baseados em LLM quando eles foram lançados. Mas, nos últimos dois anos, assistimos a melhorias consideráveis ​​na consistência dos resultados generativos da IA, graças ao ajuste fino, aos ciclos de feedback humano e aos esforços consistentes para treinar e refinar estes modelos. Precisaremos colocar um nível semelhante de esforço para minimizar a aleatoriedade dos sistemas de IA de agentes para torná-los mais previsíveis e confiáveis.

Privacidade e segurança de dados

Algumas empresas hesitam em usar IA de agência devido a questões de privacidade e segurança, que são semelhantes às da IA ​​generativa, mas podem ser ainda mais preocupantes. Por exemplo, quando um usuário se envolve com um modelo de linguagem grande, cada bit de informação fornecido ao modelo é incorporado a esse modelo. Não há como voltar atrás e pedir para “esquecer” essa informação. Alguns tipos de ataque à segurança, como a injeção imediata, tiram vantagem disso tentando fazer com que o modelo vaze informações proprietárias. Como os agentes de software têm acesso a muitos sistemas diferentes com um elevado nível de autonomia, existe um risco acrescido de que possam expor dados privados de mais fontes.