Desde maio de 2023, a Casa Branca, em colaboração com as principais empresas de IA, tem orientado para um quadro abrangente para o desenvolvimento responsável da IA. Embora a finalização deste quadro esteja pendente, as tentativas de auto-regulação da indústria estão a acelerar, principalmente para dar resposta às crescentes preocupações de segurança da IA.

A mudança no sentido de incorporar confiança e segurança nas ferramentas e modelos de IA é um progresso importante. Contudo, o verdadeiro desafio reside em garantir que estas discussões críticas não aconteçam à porta fechada. Para que a IA evolua de forma responsável e inclusiva, é imperativo democratizar o conhecimento da IA.

O rápido avanço da IA ​​levou a uma explosão de ferramentas amplamente acessíveis, alterando fundamentalmente a forma como os utilizadores finais interagem com a tecnologia. Os chatbots, por exemplo, estão presentes em nossas rotinas diárias. Impressionantes 47% dos americanos agora recorrem à IA como o ChatGPT para recomendações de ações, enquanto 42% dos estudantes confiam nela para fins acadêmicos.

A adoção generalizada da IA ​​destaca uma necessidade urgente de resolver um problema crescente: a dependência de ferramentas de IA sem uma compreensão fundamental dos grandes modelos de linguagem (LLMs) sobre os quais se baseiam.

Alucinações do chatbot: pequenos erros ou desinformação?

Uma preocupação significativa decorrente desta falta de compreensão é a prevalência de “alucinações de chatbot”, ou seja, casos em que os LLMs divulgam inadvertidamente informações falsas. Esses modelos, treinados em vastas áreas de dados, podem gerar respostas errôneas quando alimentados com dados incorretos, seja deliberadamente ou por meio de coleta não intencional de dados da Internet.

Numa sociedade cada vez mais dependente da tecnologia para obter informação, a capacidade da IA ​​para gerar dados aparentemente credíveis, mas falsos, ultrapassa a capacidade do utilizador médio para os processar e verificar. O maior risco aqui é a aceitação inquestionável da informação gerada pela IA, levando potencialmente a decisões mal informadas que afectam os domínios pessoal, profissional e educacional.

O desafio, então, é duplo. Primeiro, os usuários devem estar equipados para identificar informações incorretas sobre IA. E segundo, os usuários devem desenvolver hábitos para verificar o conteúdo gerado pela IA. Não se trata apenas de aumentar a segurança empresarial. As ramificações sociais e políticas da desinformação não controlada gerada pela IA são profundas e de longo alcance.

Um apelo à colaboração aberta

Em resposta a estes desafios, organizações como o Frontier Model Forum, estabelecido pelos líderes da indústria OpenAI, Google e Microsoft, ajudam a estabelecer as bases para a confiança e segurança em ferramentas e modelos de IA. No entanto, para que a IA floresça de forma sustentável e responsável, será necessária uma abordagem mais ampla. Isso significa estender a colaboração além dos muros corporativos para incluir comunidades públicas e de código aberto.

Essa inclusão não só aumenta a fiabilidade dos modelos de IA, mas também reflete o sucesso observado nas comunidades de código aberto, onde uma gama diversificada de perspetivas é fundamental na identificação de ameaças e vulnerabilidades à segurança.

Conhecimento gera confiança e segurança

Um aspecto essencial da democratização do conhecimento da IA ​​reside na educação dos utilizadores finais sobre o funcionamento interno da IA. Fornecer insights sobre fonte de dados, treinamento de modelos e as limitações inerentes dessas ferramentas é vital. Esse conhecimento fundamental não apenas cria confiança, mas também capacita as pessoas a usarem a IA de forma mais produtiva e segura. Em contextos empresariais, esta compreensão pode transformar as ferramentas de IA de meros melhoradores de eficiência em impulsionadores da tomada de decisões informadas.

Preservar e promover uma cultura de investigação e ceticismo é igualmente crítico, especialmente à medida que a IA se torna mais difundida. Em ambientes educacionais, onde a IA está remodelando o cenário de aprendizagem, é fundamental promover a compreensão de como usar a IA corretamente. Tanto os educadores como os estudantes precisam de ver a IA não como os únicos árbitros da verdade, mas como ferramentas que aumentam as capacidades humanas na concepção, formulação de perguntas e investigação.

A IA, sem dúvida, é um equalizador poderoso capaz de elevar o desempenho em vários campos. No entanto, “adormecer ao volante” com uma dependência excessiva da IA ​​sem uma compreensão adequada da sua mecânica pode levar à complacência, impactando negativamente a produtividade e a qualidade.

A rápida integração da IA ​​nos mercados de consumo ultrapassou a prestação de orientação ou instrução, revelando uma dura realidade: o utilizador médio carece de educação adequada sobre as ferramentas de que depende cada vez mais para a tomada de decisões e para o trabalho. Garantir o avanço e a utilização seguros da IA ​​nos negócios, na educação e nas nossas vidas pessoais depende da democratização generalizada do conhecimento da IA.

Somente através do esforço coletivo e da compreensão partilhada poderemos enfrentar os desafios e aproveitar todo o potencial das tecnologias de IA.

Peter Wang é diretor de IA e inovação e cofundador da Anaconda.

Generative AI Insights oferece um local para líderes de tecnologia – incluindo fornecedores e outros colaboradores externos – explorarem e discutirem os desafios e oportunidades da inteligência artificial generativa. A seleção é ampla, desde aprofundamentos tecnológicos até estudos de caso e opiniões de especialistas, mas também subjetiva, com base em nosso julgamento de quais tópicos e tratamentos servirão melhor ao público tecnicamente sofisticado do InfoWorld. A InfoWorld não aceita material de marketing para publicação e reserva-se o direito de editar todo o conteúdo contribuído. Contato [email protected].