A Administração Biden emitiu na terça-feira um relatório da AI no qual afirmou que iria não estaria “restringindo imediatamente a ampla disponibilidade de pesos de modelos abertos (parâmetros numéricos que ajudam a determinar a resposta de um modelo às entradas) nos maiores sistemas de IA”, mas enfatizou que poderia mudar essa posição em um ponto não especificado.
O relatório, que foi oficialmente divulgado pela Administração Nacional de Telecomunicações e Informações (NTIA) do Departamento de Comércio dos EUA, focou extensivamente nos prós e contras de um modelo de base de uso duplo, que foi definido como um modelo de IA que “é treinado em dados amplos; geralmente usa autossupervisão; contém pelo menos dezenas de bilhões de parâmetros; é aplicável em uma ampla gama de contextos; e que exibe, ou pode ser facilmente modificado para exibir, altos níveis de desempenho em tarefas que representam um sério risco à segurança, à segurança econômica nacional, à saúde ou segurança pública nacional, ou qualquer combinação desses assuntos”.
A ampla disponibilidade de modelos de IA “poderia representar uma gama de riscos e benefícios marginais. Mas os modelos estão evoluindo muito rapidamente, e a extrapolação com base nas capacidades e limitações atuais é muito difícil, para concluir se os modelos de fundação aberta representam mais riscos marginais do que benefícios”, disse o relatório.
“Por exemplo”, ele disse, “quanto os pesos do modelo aberto reduzem a barreira de entrada para a síntese, disseminação e uso de material CBRN (químico, biológico, radiológico ou nuclear)? Os pesos do modelo aberto impulsionam a pesquisa de segurança mais do que introduzem novos riscos de uso indevido ou controle? Eles reforçam ataques cibernéticos ofensivos mais do que impulsionam a pesquisa de defesa cibernética? Eles permitem mais discriminação em sistemas downstream do que promovem a pesquisa de preconceito? E como pesamos essas considerações contra a introdução e disseminação de conteúdo CSAM (material de abuso sexual infantil)/NCII (imagens íntimas não consensuais)?”
Reações mistas
Executivos do setor tiveram reações mistas às notícias, aplaudindo a falta de restrições imediatas, mas expressando preocupações de que o relatório não descartou tais restrições no curto prazo.
Yashin Manraj, CEO da Pvotal, sediada no Oregon, disse que havia muitos temores na indústria antes da publicação do relatório final de que os EUA tentariam restringir o desenvolvimento de IA de alguma forma. Também houve conversas na comunidade de investimentos de que as operações de desenvolvimento de IA poderiam ter que se mudar para fora dos EUA caso as regulamentações tivessem sido anunciadas. A Pvotal opera em nove países.
“Os VCs não estão mais nos pressionando” para realocar o desenvolvimento de IA para ambientes mais amigáveis à IA, como Dubai, disse Manraj, mas ele teria preferido ter visto uma promessa de longo prazo de ausência de regulamentação adicional.
“Foi o passo certo não implementar nenhum tipo de ação executável no curto prazo, mas não há nenhuma promessa clara e definitiva. Não sabemos o que vai acontecer em três meses”, disse Manraj. “Pelo menos não precisamos fazer nenhuma mudança drástica agora, mas há um pouco de preocupação sobre como as coisas vão acontecer. Teria sido bom ter essa clareza.”
Outro executivo de IA, Hamza Tahir, CTO da ZenML, disse: “o relatório fez um bom trabalho ao reconhecer os perigos que a IA pode causar, ao mesmo tempo em que errou no lado da não regulamentação e da abertura. Foi uma resposta prudente e racional, uma abordagem sensata. Eles não têm a expertise agora.”
Problemas para desenvolvedores
O relatório em si se concentrou no nível de controle que os codificadores têm ao desenvolver modelos de IA generativos.
“Desenvolvedores que liberam pesos de modelos publicamente abrem mão do controle e da visibilidade das ações de seus usuários finais. Eles não podem rescindir o acesso aos pesos ou realizar moderação no uso do modelo. Embora os pesos possam ser removidos de plataformas de distribuição, como Hugging Face, uma vez que os usuários tenham baixado os pesos, eles podem compartilhá-los por outros meios”, disse.
O relatório observou que modelos de fundação de uso duplo podem ser benéficos, pois eles “diversificam e expandem a gama de atores, incluindo atores com menos recursos, que participam da P&D de IA. Eles descentralizam o controle do mercado de IA de alguns grandes desenvolvedores de IA. E permitem que os usuários alavanquem modelos sem compartilhar dados com terceiros, aumentando a confidencialidade e a proteção de dados.”
Por que não há novas regulamentações?
Uma das razões citadas pelo relatório para não impor, pelo menos inicialmente, quaisquer novos encargos regulatórios ao desenvolvimento da IA é que a pesquisa até o momento simplesmente não foi muito conclusiva, uma vez que foi conduzida em modelos já lançados.
“As evidências desta pesquisa fornecem uma linha de base para medir riscos e benefícios marginais, mas não podem medir preventivamente os riscos e benefícios introduzidos pela ampla divulgação de um modelo futuro”, disse o relatório. “Ele pode fornecer relativamente pouco suporte para os riscos e benefícios marginais de futuras divulgações de modelos de base de uso duplo com pesos de modelo amplamente disponíveis. Sem mudanças nas capacidades de pesquisa e monitoramento, essa dinâmica pode persistir. Qualquer evidência de riscos que justifique possíveis intervenções políticas para restringir a disponibilidade de pesos de modelo pode surgir somente após esses modelos de IA, fechados ou abertos, terem sido divulgados.”
Ele acrescentou que muitos modelos de IA com pesos de modelo amplamente disponíveis têm menos de 10 bilhões de parâmetros, portanto estavam fora do escopo do relatório, conforme definido na Ordem Executiva de 2023.
“Avanços na arquitetura de modelos ou técnicas de treinamento podem levar a modelos que antes exigiam mais de 10 bilhões de parâmetros para serem equiparados em capacidades e desempenho por modelos mais novos com menos de 10 bilhões de parâmetros”, observou o relatório. “Além disso, conforme a ciência progride, é possível que essa dinâmica se acelere, com o número de parâmetros necessários para capacidades avançadas diminuindo constantemente.”
O relatório também alertou que tais modelos “poderiam plausivelmente exacerbar os riscos que os modelos de IA representam para a segurança pública ao permitir que uma gama maior de atores, incluindo usuários irresponsáveis e maliciosos, aproveitem as capacidades existentes desses modelos e as aumentem para criar sistemas mais perigosos. Por exemplo, mesmo que o modelo original tenha salvaguardas integradas para proibir certos prompts que podem prejudicar a segurança pública, como filtros de conteúdo, listas de bloqueio e escudos de prompt, o acesso direto ao peso do modelo pode permitir que indivíduos retirem esses recursos de segurança.”
Ameaças à segurança pública
Também despertou os leitores com um subtítulo que dizia: “Ameaças químicas, biológicas, radiológicas ou nucleares à segurança pública”.
Essa seção observou que ferramentas de design biológico (BDTs) “excedendo o limite do parâmetro estão apenas começando a aparecer. BDTs suficientemente capazes de qualquer escala devem ser discutidas juntamente com modelos de fundação de uso duplo devido ao seu risco potencial para a criação de armas biológicas e químicas.”
“Alguns especialistas argumentaram que a distribuição indiscriminada e não rastreável exclusiva dos pesos de modelos abertos cria o potencial para permitir atividade química, biológica, radiológica ou nuclear (CBRN) entre agentes mal-intencionados, especialmente à medida que os modelos de fundação aumentam suas capacidades multimodais e se tornam melhores assistentes de laboratório”, disse o relatório.
Implicações internacionais
O relatório também alertou que outros países não devem tomar suas próprias medidas, especialmente se essas regras contradizerem as regras de outras regiões.
“Inconsistências em abordagens para modelar a abertura também podem dividir a internet em silos digitais, causando um cenário de ‘splinter-net’. Se um estado decide proibir pesos de modelos abertos, mas outros, como os Estados Unidos, não o fazem, as nações restritivas devem, de alguma forma, impedir que seus cidadãos acessem modelos publicados em outros lugares”, disse o relatório. “Como os desenvolvedores geralmente publicam pesos de modelos abertos online, os países que optarem por implementar medidas mais rigorosas terão que restringir certos sites, pois os sites de alguns países hospedariam modelos abertos e outros não.”
Ele disse que há preocupações especiais sobre nações hostis à política dos EUA.
“Os atores poderiam experimentar modelos de fundação para avançar a P&D para inúmeras aplicações militares e de inteligência, incluindo detecção de sinais, reconhecimento de alvos, processamento de dados, tomada de decisão estratégica, simulação de combate, transporte, congestionamentos de sinais, sistemas de coordenação de armas e enxames de drones”, disse o relatório. “Modelos abertos poderiam potencialmente promover essas iniciativas de pesquisa, permitindo que atores estrangeiros inovem em modelos dos EUA e descubram conhecimento técnico crucial para a construção de modelos de uso duplo.”