Para piorar essa situação, é a realidade de que os desenvolvedores estão cada vez mais economizando tempo usando IA para criar relatórios de bugs. Esses “relatórios de segurança de baixa qualidade, com spam e alucinados por LLM (modelo de linguagem grande)”, como Seth Larson, do Python, os chama, sobrecarregam os mantenedores do projeto com lixo que desperdiça tempo, tornando mais difícil manter a segurança do projeto. A IA também é responsável por introduzir bugs no software, como detalha o CEO da Symbiotic Security, Jerome Robert. “As plataformas GenAI, como o (GitHub) Copilot, aprendem com o código postado em sites como o GitHub e têm o potencial de adquirir alguns maus hábitos ao longo do caminho” porque “a segurança é um objetivo secundário (se é que é)”. GenAI, em outras palavras, é altamente impressionável e irá regurgitar os mesmos bugs (ou comentários racistas) que detecta em seu material de origem.
O que, eu me preocupo?
Nada disso importa, desde que usemos IA generativa para impressionar as pessoas no X com mais uma demonstração de “Não acredito que a IA possa criar um vídeo que eu nunca pagaria para assistir”. Mas como a genAI é cada vez mais usada para construir todo o software que usamos… bem, a segurança é importante. Bastante.
Infelizmente, isso ainda não importa para a OpenAI e outras empresas que constroem grandes modelos de linguagem. De acordo com o recém-lançado AI Safety Index, que classifica Meta, OpenAI, Anthropic e outros em risco e segurança, os LLMs da indústria estão, como um grupo, no caminho certo para serem reprovados em seu primeiro ano na faculdade de IA. A empresa com melhor desempenho, a Anthropic, obteve nota C. Como Stuart Russell, um dos autores do relatório e professor da UC Berkeley, opina: “Embora haja muita atividade nas empresas de IA que se enquadra no título de ‘segurança’, ainda não é muito eficaz.” Além disso, ele diz: “Nenhuma atividade atual oferece qualquer tipo de garantia quantitativa de segurança; nem parece possível fornecer tais garantias, dada a abordagem atual à IA através de gigantescas caixas pretas treinadas em quantidades inimaginavelmente vastas de dados.” Não é muito encorajador, certo?