A inteligência artificial tem o poder de revolucionar as indústrias, impulsionar o crescimento económico e melhorar a nossa qualidade de vida. Mas, como qualquer tecnologia poderosa e amplamente disponível, a IA também apresenta riscos significativos.
A legislação agora vetada da Califórnia, SB 1047 – a Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira – procurou combater os riscos “catastróficos” da IA, regulamentando os desenvolvedores de modelos de IA. Embora os legisladores devam ser elogiados por tentarem antecipar-se aos perigos potenciais representados pela IA, o SB 1047 errou fundamentalmente o alvo. Abordou os riscos hipotéticos da IA num futuro distante, em vez do risco real da IA de hoje, e concentrou-se nas organizações que são fáceis de regular, em vez dos intervenientes maliciosos que realmente causam danos.
O resultado foi uma lei que pouco fez para melhorar a segurança real e corre o risco de sufocar a inovação e o investimento em IA e diminuir a liderança dos Estados Unidos na IA. No entanto, não pode haver dúvidas de que a regulamentação da IA está a chegar. Além da Lei da IA da UE e das leis chinesas sobre IA, 45 estados dos EUA introduziram projetos de lei sobre IA em 2024. Todas as empresas que pretendam aproveitar a IA e a aprendizagem automática devem preparar-se para regulamentação adicional, aumentando as suas capacidades de governação da IA o mais rapidamente possível.
Enfrentar riscos improváveis ao custo de ignorar os perigos presentes
Existem muitas maneiras reais pelas quais a IA pode ser usada para causar danos hoje. Exemplos de deepfakes para fraude, desinformação e pornografia não consensual já estão se tornando comuns. No entanto, o SB 1047 parecia mais preocupado com hipotéticos riscos catastróficos da IA do que com as ameaças reais e presentes que a IA representa hoje. A maioria dos riscos catastróficos previstos pela lei são ficção científica, tais como a capacidade dos modelos de IA para desenvolver novas armas nucleares ou biológicas. Não está claro como os atuais modelos de IA causariam estes eventos catastróficos, e é improvável que estes modelos tenham tais capacidades num futuro próximo, ou nunca.
O SB 1047 também se concentrou em desenvolvedores comerciais de modelos de IA, e não naqueles que causam danos ativamente usando IA. Embora existam maneiras básicas pelas quais os desenvolvedores de IA podem garantir que seus modelos sejam seguros – por exemplo, barreiras à geração de fala ou imagens prejudiciais ou à divulgação de dados confidenciais – eles têm pouco controle sobre como os usuários posteriores aplicam seus modelos de IA. Os desenvolvedores dos gigantescos modelos genéricos de IA visados pela lei estarão sempre limitados nas etapas que podem tomar para reduzir o risco de seus modelos para o número potencialmente infinito de casos de uso aos quais seus modelos podem ser aplicados. Responsabilizar os desenvolvedores de IA pelos riscos posteriores é o mesmo que responsabilizar os fabricantes de aço pela segurança das armas ou dos carros fabricados com ela. Em ambos os casos, só é possível garantir eficazmente a segurança e mitigar os riscos regulando os casos de utilização a jusante, o que esta lei não fez.
Além disso, a realidade é que os riscos actuais da IA, e os do futuro próximo, decorrem daqueles que exploram intencionalmente a IA para actividades ilegais. Estes intervenientes operam à margem da lei e é pouco provável que cumpram qualquer quadro regulamentar, mas também é pouco provável que utilizem os modelos comerciais de IA criados pelos criadores que o SB 1047 pretendia regular. Por que usar um modelo comercial de IA – onde você e suas atividades são rastreados – quando você pode usar modelos de IA de código aberto amplamente disponíveis?
Uma colcha de retalhos fragmentada de regulamentação ineficaz da IA
As leis propostas, como a SB 1047, também contribuem para um problema crescente: a colcha de retalhos de regulamentações inconsistentes sobre IA entre estados e municípios. Quarenta e cinco estados introduziram e 31 promulgaram alguma forma de regulamentação de IA em 2024 (fonte). Este cenário regulatório fraturado cria um ambiente onde navegar pela conformidade se torna um desafio caro, especialmente para startups de IA que não têm recursos para atender a uma infinidade de requisitos estaduais conflitantes.
Mais perigoso ainda, a evolução da colcha de retalhos de regulamentações ameaça minar a segurança que procura promover. Os intervenientes maliciosos explorarão a incerteza e as diferenças nas regulamentações entre estados e fugirão à jurisdição dos reguladores estaduais e municipais.
Geralmente, o ambiente regulamentar fragmentado tornará as empresas mais hesitantes em implementar tecnologias de IA, uma vez que se preocupam com a incerteza do cumprimento de uma gama cada vez maior de regulamentos. Atrasa a adoção da IA pelas organizações, levando a uma espiral de menor impacto e menos inovação, e potencialmente impulsionando o desenvolvimento e o investimento em IA noutros locais. Uma regulamentação mal elaborada da IA pode desperdiçar a liderança dos EUA em IA e restringir uma tecnologia que é atualmente a nossa melhor oportunidade para melhorar o crescimento e a nossa qualidade de vida.
Uma abordagem melhor: regulamentação federal unificada e adaptativa
Uma solução muito melhor para gerir os riscos da IA seria uma abordagem regulamentar federal unificada que fosse adaptável, prática e focada nas ameaças do mundo real. Tal quadro proporcionaria consistência, reduziria os custos de conformidade e estabeleceria salvaguardas que evoluem juntamente com as tecnologias de IA. O governo federal está numa posição única para criar um ambiente regulatório abrangente que apoie a inovação e, ao mesmo tempo, proteja a sociedade dos riscos genuínos representados pela IA.
Uma abordagem federal garantiria padrões consistentes em todo o país, reduzindo os encargos de conformidade e permitindo que os desenvolvedores de IA se concentrassem em medidas reais de segurança, em vez de navegarem por uma manta de retalhos de regulamentações estaduais conflitantes. Fundamentalmente, esta abordagem deve ser dinâmica, evoluindo juntamente com as tecnologias de IA e informada pelos riscos reais que surgem. As agências federais são o melhor mecanismo disponível hoje para garantir que a regulamentação se adapte à medida que a tecnologia e os seus riscos evoluem.
Construindo resiliência: o que as organizações podem fazer agora
Independentemente da evolução da regulamentação da IA, há muito que as organizações podem fazer agora para reduzir o risco de utilização indevida e preparar-se para a conformidade futura. Equipes avançadas de ciência de dados em setores altamente regulamentados — como finanças, seguros e saúde — oferecem um modelo sobre como governar a IA de maneira eficaz. Estas equipas desenvolveram processos robustos para gerir riscos, garantir a conformidade e maximizar o impacto das tecnologias de IA.
As principais práticas incluem controlar o acesso a dados, infraestrutura, código e modelos, testar e validar modelos de IA ao longo do seu ciclo de vida e garantir a auditabilidade e a reprodutibilidade dos resultados da IA. Estas medidas proporcionam transparência e responsabilização, tornando mais fácil para as empresas demonstrarem conformidade com quaisquer regulamentos futuros. Além disso, as organizações que investem nestas capacidades não estão apenas a proteger-se do risco regulamentar; eles estão se posicionando como líderes na adoção e no impacto da IA.
O perigo das boas intenções
Embora a intenção por trás do SB 1047 fosse louvável, a sua abordagem era falha. Ele se concentrou em organizações que são fáceis de regular versus onde reside o risco real. Ao concentrar-se em ameaças futuras improváveis e não nos riscos reais de hoje, ao impor encargos indevidos aos promotores e ao contribuir para um panorama regulamentar fragmentado, o SB 1047 ameaçou minar os próprios objectivos que procurava alcançar. A regulamentação eficaz da IA deve ser direcionada, adaptável e consistente, abordando os riscos reais sem sufocar a inovação.
Há muito que as organizações podem fazer para reduzir os seus riscos e cumprir a regulamentação futura, mas uma regulamentação inconsistente e mal elaborada irá dificultar a inovação e até aumentar o risco. A Lei da IA da UE serve como um conto de advertência. O seu âmbito abrangente, as multas astronómicas e as definições vagas criam muito mais riscos para a prosperidade futura dos cidadãos da UE do que limitam realisticamente os intervenientes que pretendem causar danos com a IA. A coisa mais assustadora na IA é, cada vez mais, a própria regulamentação da IA.
Kjell Carlsson é chefe de estratégia de IA no Domino Data Lab, onde assessora organizações sobre como dimensionar o impacto com IA. Anteriormente, ele cobriu IA como analista principal na Forrester Research, onde aconselhou líderes em tópicos que vão desde visão computacional, MLOps, AutoML e inteligência de conversação até tecnologias de IA de próxima geração. Carlsson também é o apresentador do podcast Data Science Leaders. Ele recebeu seu Ph.D. da Universidade de Harvard.
–
Generative AI Insights oferece um local para líderes de tecnologia – incluindo fornecedores e outros colaboradores externos – explorarem e discutirem os desafios e oportunidades da inteligência artificial generativa. A seleção é ampla, desde aprofundamentos tecnológicos até estudos de caso e opiniões de especialistas, mas também subjetiva, com base em nosso julgamento de quais tópicos e tratamentos atenderão melhor ao público tecnicamente sofisticado do InfoWorld. A InfoWorld não aceita material de marketing para publicação e reserva-se o direito de editar todo o conteúdo contribuído. Contato [email protected].