Todo mundo está fazendo IA, mas ninguém sabe por quê. Isso é um exagero, é claro, mas parece que o mercado atingiu o pico de entusiasmo sem pico de produtividade. Como destaca Barr Moses, CEO da Monte Carlo, em uma pesquisa recente da Wakefield, 91% dos líderes de dados estão construindo aplicações de IA, mas dois terços desse mesmo grupo disseram que não confiam seus dados em grandes modelos de linguagem (LLMs). Em outras palavras, eles estão construindo IA na areia.

Para ter sucesso, precisamos ir além do hype confuso e ajudar as empresas a entender a IA. Por outras palavras, precisamos de mais confiança (modelos abertos) e menos peças móveis (plataformas opinativas que exigem adivinhações para escolher e aplicar modelos).

Talvez precisemos de um Red Hat para IA. (Isso também levanta a questão: por que a Red Hat não está se tornando a Red Hat da IA?)

Um modelo que precisa de complexidade

Brian Stevens, que foi CTO da Red Hat em 2006, me ajudou a entender uma dependência fundamental do modelo de negócios da Red Hat. Como ele observou então: “O modelo da Red Hat funciona devido à complexidade da tecnologia com a qual trabalhamos. Uma plataforma operacional tem muitas peças móveis e os clientes estão dispostos a pagar para ficarem isolados dessa complexidade.” A Red Hat cria uma distribuição do Linux, escolhendo determinados pacotes (pilhas de rede, drivers de impressão, etc.) e depois testando/fortalecendo essa distribuição para os clientes.

Qualquer um pode baixar o código bruto do Linux e criar sua própria distribuição, e muitos o fazem. Mas não as grandes empresas. Ou mesmo pequenas empresas. Eles ficam felizes em pagar à Red Hat (ou outro fornecedor como a AWS) para remover a complexidade da compilação de componentes e fazer com que tudo funcione perfeitamente em conjunto. É importante ressaltar que a Red Hat também contribui para a variedade de pacotes de código aberto que compõem uma distribuição Linux. Isto dá às grandes empresas a confiança de que, se assim o desejarem (a maioria não o faz), poderão abandonar o Red Hat Enterprise Linux de uma forma que nunca conseguiriam abandonar o UNIX proprietário.

Esse processo de desmistificação do Linux, combinado com o código aberto que gerou confiança no código, transformou a Red Hat em uma empresa multibilionária. O mercado precisa de algo semelhante para IA.

Um modelo que gera complexidade

OpenAI, por mais popular que seja hoje, é não a solução. Isso apenas agrava o problema com a proliferação de modelos. A OpenAI lança cada vez mais dados em seus LLMs, tornando-os melhores, mas não mais fáceis de serem usados ​​pelas empresas na produção. Nem está sozinho. Google, Anthropic, Mistral, etc., etc., todos têm LLMs que desejam que você use, e cada um parece ser maior/melhor/mais rápido que o anterior, mas não mais claro para a empresa média.

Estamos começando a ver as empresas se afastando do hype e fazendo um trabalho mais prático e útil com a geração aumentada por recuperação (RAG). Este é precisamente o tipo de trabalho que uma empresa do tipo Red Hat deveria fazer pelas empresas. Posso estar faltando alguma coisa, mas ainda não vi a Red Hat ou qualquer outra pessoa intervindo para tornar a IA mais acessível para uso empresarial.

Você esperaria que os fornecedores de nuvem preenchessem essa função, mas eles mantiveram seus manuais pré-existentes na maior parte do tempo. A AWS, por exemplo, construiu um negócio de taxa de execução de US$ 100 bilhões, salvando os clientes do “trabalho pesado indiferenciado” de gerenciamento de bancos de dados, sistemas operacionais, etc. Acesse a página de IA generativa da AWS e você verá que eles estão se alinhando para oferecer serviços semelhantes para clientes com IA. Mas os LLMs não são sistemas operacionais ou bancos de dados ou algum outro elemento conhecido na computação empresarial. Eles ainda são pó mágico e magia.

O “trabalho pesado indiferenciado” é apenas parcialmente uma questão de gerenciá-lo como um serviço em nuvem. A necessidade mais premente é compreender como e quando usar todos esses componentes de IA de forma eficaz. A AWS acredita que está fazendo um favor aos clientes ao oferecer “ampla escolha de modelo e ferramentas generativas de IA” no Amazon Bedrock, mas a maioria das empresas hoje não precisa de “ampla escolha”, mas sim de uma escolha significativa com orientação. O mesmo se aplica à Red Hat, que apregoa a “matriz de opções” que a sua abordagem de IA oferece, sem tornar essas escolhas mais acessíveis às empresas.

Talvez esta expectativa de que os fornecedores de infra-estruturas irão além do seu ADN para oferecer soluções reais seja quixotesca. Justo. Talvez, como nos ciclos tecnológicos anteriores, teremos vencedores iniciais nos níveis mais baixos da pilha (como a Nvidia), seguidos por aqueles que estão um ou dois degraus acima na pilha, sendo os maiores vencedores os fornecedores de aplicações que removem todos a complexidade para os clientes. Se isso for verdade, talvez seja hora de nos acalmarmos e esperarmos que os “criadores de escolha” dêem lugar a fornecedores capazes de tornar a IA significativa para os clientes.