A IA responsável (RAI) é necessária agora mais do que nunca. É a chave para impulsionar tudo, desde a confiança e a adoção até o gerenciamento de alucinações de LLM e a eliminação de conteúdo tóxico de IA generativo. Com um RAI eficaz, as empresas podem inovar mais rapidamente, transformar mais partes do negócio, cumprir a regulamentação futura da IA ​​e evitar multas, danos à reputação e estagnação competitiva.

Infelizmente, reina a confusão sobre o que é realmente o RAI, o que proporciona e como alcançá-lo, com efeitos potencialmente catastróficos. Se mal executadas, as iniciativas da RAI impedem a inovação, criando obstáculos que acrescentam atrasos e custos sem realmente melhorarem a segurança. Abundam mitos bem-intencionados, mas equivocados, em relação à própria definição e propósito da RAI. As organizações devem quebrar estes mitos se quiserem transformar a RAI numa força para a criação de valor impulsionada pela IA, em vez de num desperdício de tempo dispendioso e ineficaz.

Então, quais são os mitos mais perniciosos da RAI? E como devemos definir melhor o RAI para colocar as nossas iniciativas num caminho sustentável para o sucesso? Permita-me compartilhar meus pensamentos.

Mito 1: IA responsável tem a ver com princípios

Vá a qualquer gigante da tecnologia e você encontrará os princípios da RAI – como explicabilidade, justiça, privacidade, inclusão e transparência. Eles são tão predominantes que você seria perdoado por pensar que os princípios estão no cerne da RAI. Afinal, estes soam exatamente como os tipos de princípios que esperaríamos de um ser humano responsável, então certamente são fundamentais para garantir uma IA responsável, certo?

Errado. Todas as organizações já possuem princípios. Normalmente, são exatamente os mesmos princípios promulgados para a RAI. Afinal, quantas organizações diriam que são contra a justiça, a transparência e a inclusão? E, se fossem, você poderia realmente sustentar um conjunto de princípios para IA e um conjunto diferente de princípios para o resto da organização?

Além disso, os princípios não são mais eficazes para gerar confiança na IA do que para as pessoas e organizações. Você confia que uma companhia aérea com descontos o levará com segurança ao seu destino devido aos seus princípios? Ou você confia neles por causa dos pilotos, técnicos e controladores de tráfego aéreo treinados que seguem processos rigorosamente aplicados, usando equipamentos cuidadosamente testados e inspecionados regularmente?

Assim como as viagens aéreas, são as pessoas, os processos e a tecnologia que permitem e aplicam os seus princípios que estão no cerne da RAI. Provavelmente, você já tem os princípios certos. O desafio é colocar esses princípios em prática.

Mito 2: IA responsável tem a ver com ética

Certamente a RAI trata do uso ético da IA ​​– garantindo que os modelos sejam justos e não causem discriminação prejudicial, certo? Sim, mas também se trata de muito mais.

Apenas um pequeno subconjunto de casos de utilização de IA tem realmente considerações éticas e de justiça, tais como modelos que são utilizados para pontuação de crédito, que analisam currículos ou que podem levar à perda de empregos. Naturalmente, precisamos da RAI para garantir que esses casos de uso sejam abordados de forma responsável, mas também precisamos da RAI para garantir que todas as nossas outras soluções de IA sejam desenvolvidas e usadas de forma segura e confiável, e atendam aos requisitos financeiros e de desempenho da organização.

As mesmas ferramentas que você usa para fornecer explicabilidade, verificar preconceitos e garantir a privacidade são exatamente as mesmas que você usa para garantir precisão, confiabilidade e proteção de dados. A RAI ajuda a garantir que a IA seja usada de forma ética quando há considerações de justiça em jogo, mas é igualmente crítica para todos os outros casos de uso de IA.

Mito 3: IA responsável tem a ver com explicabilidade

É um refrão comum que precisamos de explicabilidade, também conhecida como interpretabilidade, para podermos confiar na IA e utilizá-la de forma responsável. Nós não. A explicabilidade não é mais necessária para confiar na IA do que saber como funciona um avião é necessário para confiar nas viagens aéreas.

As decisões humanas são um exemplo disso. Quase sempre conseguimos explicar as nossas decisões, mas há provas abundantes de que estas são histórias ex-post que inventamos e que têm pouco a ver com os verdadeiros impulsionadores do nosso comportamento de tomada de decisão.

Em vez disso, a explicabilidade da IA ​​– o uso de modelos de “caixa branca” que podem ser facilmente compreendidos e métodos como LIME e ShAP – é importante em grande parte para testar se seus modelos estão funcionando corretamente. Ajudam a identificar correlações espúrias e potenciais discriminações injustas. Em casos de uso simples, onde os padrões são fáceis de detectar e explicar, eles podem ser um atalho para uma maior confiança. No entanto, se esses padrões forem suficientemente complexos, qualquer explicação fornecerá, na melhor das hipóteses, indicações de como uma decisão foi tomada e, na pior das hipóteses, será um completo disparate.

Em suma, a explicabilidade é algo bom de se ter, mas muitas vezes é impossível entregá-la de maneira que gere significativamente a confiança das partes interessadas. O objetivo da RAI é garantir a confiança em todos os casos de uso de IA, o que significa fornecer confiança por meio de pessoas, processos e tecnologia (especialmente plataformas) usados ​​para desenvolvê-los e operacionalizá-los.

IA responsável trata de gerenciamento de riscos

No final das contas, RAI é a prática de gerenciamento de riscos ao desenvolver e usar modelos de IA e aprendizado de máquina. Isto envolve a gestão de riscos empresariais (tais como modelos com mau desempenho ou não fiáveis), riscos jurídicos (tais como multas regulamentares e processos judiciais de clientes ou funcionários) e até riscos sociais (tais como discriminação ou danos ambientais).

A forma como gerimos esse risco é através de uma estratégia multicamadas que desenvolve capacidades RAI sob a forma de pessoas, processos e tecnologia. Em termos de pessoas, trata-se de capacitar os líderes responsáveis ​​pela RAI (por exemplo, diretores de análise de dados, diretores de IA, chefes de ciência de dados, vice-presidentes de ML) e treinar profissionais e usuários para desenvolver, gerenciar e usar a IA de forma responsável. . Em termos de processo, trata-se de governar e controlar o ciclo de vida de ponta a ponta, desde o acesso a dados e treinamento de modelos até a implantação, monitoramento e reciclagem de modelos. E em termos de tecnologia, as plataformas são especialmente importantes porque apoiam e capacitam as pessoas e os processos em grande escala. Eles democratizam o acesso aos métodos RAI – por exemplo, para explicabilidade, detecção de preconceitos, mitigação de preconceitos, avaliação de imparcialidade e monitoramento de desvios – e impõem governança de artefatos de IA, rastreiam linhagens, automatizam documentação, orquestram fluxos de trabalho de aprovação, protegem dados, bem como uma infinidade de recursos para agilizar os processos RAI.

Estas são as capacidades que as equipas avançadas de IA em indústrias fortemente regulamentadas, como a farmacêutica, os serviços financeiros e os seguros, já têm vindo a construir e a gerar valor. São as capacidades que criam confiança em toda a IA, ou especificamente na IA generativa, em escala, com os benefícios de uma implementação mais rápida, maior adoção, melhor desempenho e maior confiabilidade. Eles ajudam a preparar as suas iniciativas de IA para o futuro a partir da futura regulamentação da IA ​​e, acima de tudo, tornam-nos todos mais seguros. A IA responsável pode ser a chave para desbloquear o valor da IA ​​em grande escala, mas primeiro você precisará quebrar alguns mitos.

Kjell Carlsson é chefe de estratégia de IA no Domino Data Lab.

Generative AI Insights oferece um local para líderes de tecnologia – incluindo fornecedores e outros colaboradores externos – explorarem e discutirem os desafios e oportunidades da inteligência artificial generativa. A seleção é ampla, desde aprofundamentos tecnológicos até estudos de caso e opiniões de especialistas, mas também subjetiva, com base em nosso julgamento de quais tópicos e tratamentos servirão melhor ao público tecnicamente sofisticado do InfoWorld. A InfoWorld não aceita material de marketing para publicação e reserva-se o direito de editar todo o conteúdo contribuído. Contato [email protected].