Avaliando os riscos de assistência de codificação de IA
Apesar dos fortes benefícios de adoção e negócios, alguns líderes destacam os riscos da assistência ao código de IA. As organizações que adotam a IA para o DevOps e o desenvolvimento de software devem definir não negociáveis, treinar equipes sobre utilização segura, identificar práticas para validar a qualidade dos resultados da IA e capturar métricas que revelam valor comercial entregue à IA.
“A IA representa riscos para codificar a qualidade e a segurança que não podem ser ignorados, tornando as revisões e a análise de código ainda uma parte crítica do processo de desenvolvimento”, diz Andrea Malagodi, CIO da Sonar. “Sem verificações e revisões adequadas, o código gerado pela IA pode levar a baixa qualidade do software e aumento da dívida tecnológica. Para maximizar os benefícios da produtividade da IA, os desenvolvedores devem ter responsabilidade pela qualidade do código e adotar uma abordagem ‘Confiança e verificar’, garantir que todo o código-gerado pela AIs ou escrito por humanos-representa os requisitos de qualidade e segurança, e a experiência do usuário não é interrompida”.
Bogdan Raduta, chefe da IA do Flowx.ai, levanta questões sobre qualidade e inovação quando as empresas dependem demais de experiências genéricas do usuário e da IA padrão para padrões e convenções. “Embora o desenvolvimento mais rápido reduz os custos, as empresas podem oferecer produtos funcionais, mas sem inspiração, abrindo oportunidades para os concorrentes se destacarem com designs sob medida e orientados a humanos”, diz Raduta.