À medida que a utilização de modelos de IA cada vez mais poderosos continua a crescer, garantir a confiança e a responsabilização deve estar no topo da lista de objetivos, a par de qualquer um dos potenciais benefícios da IA. Isso não acontecerá da noite para o dia, nem resultará de uma única etapa, como um código melhor, regulamentações governamentais ou compromissos sinceros dos desenvolvedores de IA. Exigirá uma mudança cultural substancial ao longo do tempo, envolvendo pessoas, processos e tecnologia, e exigirá ampla colaboração e cooperação entre desenvolvedores e usuários.
Apesar de quaisquer dúvidas sobre as deficiências da IA, os líderes empresariais não podem ignorar os seus benefícios. O Gartner descobriu que 79% dos estrategistas corporativos acreditam que seu sucesso nos próximos dois anos dependerá fortemente do uso de dados e IA. A proliferação do uso da IA é inevitável. A ascensão da IA generativa, em particular, criou uma mentalidade de corrida ao ouro nascida do medo de estar em desvantagem competitiva – resultando num ruído significativo e numa potencial imprudência à medida que as empresas se lançam no círculo das ofertas de IA. Para desenvolvedores e líderes de tecnologia que estão considerando adicionar IA ao seu ecossistema, há diversas armadilhas que vale a pena examinar antes de escolher uma solução. Felizmente, os apelos ao uso responsável também estão crescendo.
Com grande poder vem um grande risco
Apesar de todo o seu valor, a IA comete erros. Com os líderes de TI automatizando apenas cerca de 15% dos 50% das atividades de planejamento estratégico e execução que poderiam ser parcial ou totalmente automatizadas, isso deixa uma enorme quantidade de processos de negócios disponíveis para implementação de IA. Se pelo menos uma área da IA da empresa for ensinada com dados de treinamento aleatórios, é provável que esse segmento apresente preconceitos ou alucinações. Embora questões como preconceitos e alucinações estejam bem documentadas, mesmo processos aparentemente benignos automatizados com modelos de IA podem minar a lucratividade devido a imprecisões, visibilidade insuficiente de variáveis influentes ou dados de treinamento sub-representativos.
Outro problema frequentemente discutido com a IA é a falta de transparência no funcionamento interno dos modelos de IA, resultando em soluções de “caixa preta” que deixam os analistas incapazes de compreender como se chegou a uma conclusão. De acordo com a McKinsey, os esforços para desenvolver uma IA explicável ainda não deram muitos frutos. A McKinsey também revelou que as empresas que obtêm os maiores retornos financeiros da IA – aquelas que atribuem pelo menos 20% da receita antes de impostos ao uso da IA – são mais propensas do que outras a seguir as melhores práticas que permitem a explicabilidade. Dito de outra forma: quanto maiores forem os riscos financeiros, maior será a probabilidade de uma empresa procurar transparência na sua modelagem de IA. A abordagem SAS para modelos de cartões oferece uma solução para esse problema, permitindo que executivos e desenvolvedores avaliem a integridade do modelo.
Os governos de todo o mundo também procuram formas de regular o desenvolvimento e a utilização da IA. A Casa Branca emitiu uma Ordem Executiva em Outubro passado identificando padrões de segurança para o desenvolvimento da IA, e solicitou compromissos voluntários das principais empresas de IA para prosseguir o desenvolvimento responsável da IA. Também emitiu um projeto para uma Declaração de Direitos da IA com o objetivo de proteger a privacidade e outros direitos civis. A Lei da IA da União Europeia superou recentemente o seu obstáculo final quando os membros finalizaram o texto depois de concordarem por unanimidade sobre as disposições. A Lei da UE sobre IA é uma das primeiras tentativas abrangentes de regulamentar a IA. Além disso, o SAS foi uma das mais de 200 organizações a aderir ao Consórcio do Instituto Nacional de Padrões e Tecnologia (NIST) do Instituto de Segurança de Inteligência Artificial do Departamento de Comércio, lançado em fevereiro. O consórcio apoia o desenvolvimento e a implantação de IA confiável e segura.
Contudo, as regulamentações por si só não serão suficientes porque muitas vezes ficam atrás do rápido desenvolvimento de novas tecnologias de IA. Os regulamentos podem fornecer um quadro geral e barreiras para o desenvolvimento e utilização da IA, mas a manutenção desse quadro exigirá um compromisso e cooperação generalizados entre os criadores e utilizadores de IA. Entretanto, governos como os dos Estados Unidos também podem aproveitar o seu considerável poder de compra para estabelecer padrões e expectativas de facto para o comportamento ético.
O uso responsável da IA é construído a partir do grupo
Garantir o uso ético da IA começa antes da implantação de um modelo – na verdade, antes mesmo de uma linha de código ser escrita. O foco na ética deve estar presente desde o momento em que uma ideia é concebida e persistir durante o processo de pesquisa e desenvolvimento, testes e implantação, e deve incluir monitoramento abrangente assim que os modelos forem implantados. A ética deve ser tão essencial para a IA quanto dados de alta qualidade.
Pode começar educando as organizações e seus líderes tecnológicos sobre práticas responsáveis de IA. Muitos dos resultados negativos aqui descritos surgem simplesmente da falta de consciência dos riscos envolvidos. Se os profissionais de TI empregassem regularmente as técnicas de investigação ética, os danos não intencionais que alguns modelos causam poderiam ser drasticamente reduzidos.
Aumentar o nível de alfabetização em IA entre os consumidores também é importante. O público deve ter uma compreensão básica do que é a IA e como os dados são usados, bem como uma compreensão das oportunidades e dos riscos, embora seja função da liderança tecnológica garantir que a ética da IA seja praticada.
Como o SAS Viya coloca as práticas éticas em prática
Para ajudar a garantir que a IA funciona de forma confiável e ética, as empresas precisam de considerar parcerias com organizações de dados e de IA que dão prioridade à inovação e à transparência. No caso do SAS, nosso ecossistema SAS Viya é uma plataforma de análise e IA nativa da nuvem e de alto desempenho que se integra facilmente com linguagens de código aberto e oferece aos usuários uma interface de baixo código e sem código para trabalhar. O SAS Viya pode construir modelos mais rapidamente e escalar ainda mais, transformando um bilhão de pontos de dados em um ponto de vista claro e explicável.
Como o SAS Viya resolve alguns dos problemas enfrentados pela implantação de IA? Primeiro, a plataforma é guiada pelo compromisso do SAS com a inovação responsável, que se traduz também nas suas ofertas. Em 2019, o SAS anunciou um investimento de US$ 1 bilhão em IA, uma quantia significativa do qual foi canalizada para tornar a Viya cloud-first e adicionar processamento de linguagem natural e visão computacional à plataforma. Essas adições ajudam as empresas a analisar, organizar e analisar seus dados.
Como a construção de um modelo de IA confiável requer um conjunto robusto de dados de treinamento, o SAS Viya está equipado com fortes recursos de processamento, preparação, integração, governança, visualização e relatórios de dados. O desenvolvimento de produtos é orientado pela Prática de Ética em Dados (DEP) do SAS, uma equipe multifuncional que coordena esforços para promover os ideais de desenvolvimento ético – incluindo centralidade humana e equidade – em sistemas baseados em dados. O DEP inclui cientistas de dados e especialistas em desenvolvimento de negócios que trabalham com desenvolvedores, avaliando novos recursos e prestando consultoria em soluções que podem envolver maior risco, como aquelas para serviços financeiros, saúde e governo. Além de sua base ética, o Viya foi criado para mapear setores verticais, com usabilidade e transparência na vanguarda do design.
Capacidades da plataforma SAS Viya
A plataforma Viya inclui recursos técnicos projetados para garantir IA confiável, incluindo detecção de preconceitos, explicabilidade, auditabilidade de decisões, monitoramento de modelos, governança e responsabilidade. O preconceito, por exemplo, revelou-se insidioso nos programas de IA, bem como numa série de políticas públicas, reflectindo e perpetuando os preconceitos e preconceitos na sociedade humana. Na IA, pode distorcer os resultados, favorecendo um grupo em detrimento de outro e resultando em resultados injustos. Mas treinar modelos de IA com dados melhores e mais abrangentes pode ajudar a eliminar preconceitos – e o SAS Viya tem melhor desempenho com conjuntos de dados complexos.
O SAS Viya utiliza econometria e previsões inteligentes, permitindo aos líderes de TI modelar e simular cenários de negócios complexos com base em grandes quantidades de dados observacionais ou imputados. Para verificar a qualidade dos dados e os resultados reais de um determinado modelo de IA, um executivo de tecnologia só precisa executar o software de previsão no SAS Viya para ver os resultados. Outra salvaguarda da plataforma são seus recursos de tomada de decisão, que podem ajudar os profissionais de TI a reagir em tempo real aos resultados do modelo. Usando processos de decisão criados com uma GUI de arrastar e soltar ou código escrito, os desenvolvedores podem criar repositórios centralizados para dados, modelos e regras de negócios para orientar a precisão e garantir a transparência. Regras de negócios personalizadas, escritas por mãos humanas no SAS Viya, levam a uma implantação mais rápida e à confiança na integridade das decisões operacionais orientadas por modelos.
Alguns exemplos de como o Viya tem sido usado para melhorar as operações das organizações:
- O Center for NYC Neighborhoods e o SAS fizeram parceria para analisar desigualdades nos dados habitacionais da cidade e revelaram disparidades nos valores das casas, empréstimos para compra e relatórios de violação de manutenção que colocam as pessoas de cor em desvantagem.
- O SAS e o Centro Médico da Universidade de Amsterdã treinaram um modelo de aprendizagem profunda do SAS Viya para identificar instantaneamente as características do tumor e compartilhar informações vitais com os médicos para acelerar diagnósticos e ajudar a determinar as melhores estratégias de tratamento.
- A Virginia Commonwealth University está usando Viya para automatizar processos manuais e demorados de gerenciamento de dados, analíticos e de visualização de dados para acelerar a pesquisa sobre taxas mais altas de mortalidade por câncer entre populações vulneráveis e de baixa renda.
A IA tem o potencial de transformar a economia e a força de trabalho globais. Ele pode automatizar tarefas rotineiras, melhorar a produtividade e a eficiência e liberar os humanos para realizar trabalhos com objetivos mais elevados. A IA ajudou a alcançar avanços nos cuidados de saúde, ciências da vida, agricultura e outras áreas de investigação. Apenas os modelos de IA mais fiáveis, que dão prioridade à transparência e à responsabilização, serão responsáveis por estes tipos de avanços no futuro. Não é suficiente que uma plataforma como a Viya consiga acertar a IA responsável – ela deve abranger todo o setor, ou todos falharemos.
IA confiável requer uma abordagem unificada
A julgar pelas projeções mais extremas do seu impacto potencial, a IA representa o início de uma nova era ou o fim do mundo. A realidade está no meio: a IA apresenta benefícios revolucionários, mas também riscos significativos. A chave para colher os benefícios e ao mesmo tempo minimizar os riscos é através do desenvolvimento e uso responsáveis e éticos.
Exigirá equipes multifuncionais dentro da indústria e iniciativas intersetoriais envolvendo a indústria, o governo, a academia e o público. Significará envolver não-tecnólogos que compreendam os riscos para as populações vulneráveis. Isso significará usar tecnologias como SAS Viya, que ajuda as organizações a alcançarem seus objetivos de IA responsável. Requer regulamentações bem pensadas que estabeleçam barreiras de proteção consistentes, protejam os cidadãos e estimulem a inovação.
Mas, acima de tudo, uma IA responsável e confiável exige que busquemos avanços na IA de forma ética, com uma visão compartilhada de reduzir danos e ajudar as pessoas a prosperar.
Reggie Townsend é vice-presidente de Prática de Ética de Dados do SAS.
–
Generative AI Insights oferece um local para líderes de tecnologia – incluindo fornecedores e outros colaboradores externos – explorarem e discutirem os desafios e oportunidades da inteligência artificial generativa. A seleção é ampla, desde aprofundamentos tecnológicos até estudos de caso e opiniões de especialistas, mas também subjetiva, com base em nosso julgamento de quais tópicos e tratamentos servirão melhor ao público tecnicamente sofisticado do InfoWorld. A InfoWorld não aceita material de marketing para publicação e reserva-se o direito de editar todo o conteúdo contribuído. Contato [email protected].