Bem, isso não demorou muito. Depois de todos os comentários do tipo “desta vez é diferente” sobre inteligência artificial (nós vemos você, John Chambers!), as empresas estão se dando conta da realidade. A IA não vai tirar seu emprego. Ela não vai escrever seu código. Ela não vai escrever todo o seu texto de marketing (a menos que você esteja preparado para contratar de volta os humanos para consertá-lo). E, não, ela não está nem perto da inteligência artificial geral (AGI) e não estará tão cedo. Possivelmente nunca.

Isso mesmo: entramos no vale da desilusão da IA, quando coletivamente paramos de acreditar que a singularidade está logo ali na esquina e começamos a encontrar maneiras de a IA aumentar, não substituir, os humanos. Para aqueles que são novos na indústria e, portanto, novos em nossa tendência coletiva de exagerar em praticamente tudo — blockchain, web3 (lembra disso?), serverless — isso não é motivo para alarme. A IA terá seu lugar; ela simplesmente não será todo lugar.

Tantas esperanças tolas

A IA, seja IA generativa, aprendizado de máquina, aprendizado profundo ou o que você quiser, nunca seria capaz de sustentar as imensas expectativas que impusemos a ela. Suspeito que parte da razão pela qual a deixamos funcionar tanto por tanto tempo é que ela parecia estar além da nossa capacidade de compreensão. Era essa coisa mágica, algoritmos de caixa preta que ingerem prompts e criam imagens ou textos loucamente realistas que parecem pensativos e inteligentes. E por que não? Os principais modelos de grandes linguagens (LLMs) foram todos treinados em zilhões de exemplos de outras pessoas sendo pensativas e inteligentes, e ferramentas como o ChatGPT imitam de volta o que elas “aprenderam”.

O problema, no entanto, é que os LLMs não aprendem nada de fato. Eles não conseguem raciocinar. Eles são ótimos em correspondência de padrões, mas não em extrapolar dados de treinamento anteriores para problemas futuros, como um estudo recente do IEEE descobriu. O desenvolvimento de software tem sido um dos pontos mais brilhantes para ferramentas genAI, mas talvez não tanto quanto esperávamos. Por exemplo, o GPT-3.5 não tinha dados de treinamento após 2021. Como tal, ele lutou com problemas de codificação fáceis no LeetCode que exigiam informações que surgiram após 2021. O estudo descobriu que sua taxa de sucesso para problemas fáceis despencou de 89% para 52% e sua capacidade de criar código para problemas de codificação difícil caiu de 40% para 0,66%.

De acordo com Michelle Hampson, a descoberta mostra que o ChatGPT “não tem as habilidades de pensamento crítico de um humano e só consegue resolver problemas que já encontrou anteriormente”. Tim Klapdor afirma, de forma menos graciosa, “O ChatGPT não aprendeu o tópico, não fez nenhuma pesquisa, não fez nenhuma validação e não contribuiu com nenhum pensamento, ideia ou conceito novo. O ChatGPT apenas colonizou todos esses dados… e agora ele pode copiar/colar essas informações para você em tempo hábil porque está gastando US$ 700 mil por dia em computação”. Ai.

Isso não significa que a genAI seja inútil para o desenvolvimento de software ou outras áreas, mas significa que precisamos redefinir nossas expectativas e abordagem.

Ainda não aprendemos

Essa decepção não é só uma coisa de IA. Passamos por esse processo de expectativas infladas e desilusão com praticamente todas as novas tecnologias brilhantes. Até mesmo algo tão estabelecido quanto a nuvem continua sendo chutado de um lado para o outro. Meu colega da InfoWorld, David Linthicum, recentemente criticou a computação em nuvem, argumentando que “os ganhos de produtividade e economia de custos previstos não se materializaram, na maior parte”. Acho que ele está exagerando, mas é difícil culpá-lo, dado o quanto nós (eu inclusive) vendemos a nuvem como a solução para praticamente todos os problemas de TI.

A Linthicum também criticou o serverless. “A tecnologia serverless continuará a desaparecer em segundo plano devido ao surgimento de outros paradigmas de computação em nuvem, como edge computing e microclouds”, ele diz. Por quê? Porque essas “introduziram soluções mais diferenciadas no mercado com abordagens personalizadas que atendem a necessidades comerciais específicas, em vez do tamanho único da computação serverless”. Certa vez, sugeri que o serverless poderia substituir o Kubernetes e os contêineres. Eu estava errado. A abordagem mais comedida da Linthicum parece correta porque segue o que sempre parece acontecer com grandes novas tendências: elas não desabam completamente, elas apenas param de fingir que resolvem todos os nossos problemas e, em vez disso, são adotadas por modestas mas ainda importante formulários.

É para onde estamos indo com a IA. Já estou vendo empresas fracassarem quando tratam a genAI como a resposta para tudo, mas elas estão tendo sucesso ao usar a genAI como uma solução complementar para algumas coisas. Não é hora de abandonar a IA. Longe disso. Em vez disso, é hora de pensar sobre como e onde usá-la. Então, como tantas tendências antes (código aberto, nuvem, celular, etc., etc.), ela se tornará um complemento crítico para a forma como trabalhamos, em vez da única forma como trabalhamos.