A IA é considerada a melhor coisa desde a invenção da roda, mas você pode ser perdoado se não tiver a menor ideia do que ela significa ou do que fazer com ela. Afinal, o ritmo frenético das notícias relacionadas à IA é vertiginoso, tornando difícil filtrar o sinal do ruído.
Todos os dias é lançado um novo modelo de linguagem grande (LLM), alguns de empresas (por exemplo, Moonshot AI) levantando quantias que parecem desvinculados da realidade (por exemplo, mil milhões de dólares). Todos os dias, um LLM diferente ultrapassa os requisitos de desempenho ou funcionalidade. Algumas semanas atrás era o Meta, mas na semana passada era o do Google Gêmeos mergulhando no ChatGPT. Mesmo coisas completamente não relacionadas à IA (como carregadores de energia!!!) estão recebendo rótulos de IA.
E, no entanto, a realidade é que a maioria das empresas ainda não está a fazer coisas significativas com a IA.
Isso não quer dizer que não o farão. Mas um grande problema para a IA é o seu ritmo acelerado de inovação. É difícil até mesmo para o observador mais experiente acompanhar a IA no momento. Falei com uma cientista de dados experiente na semana passada e perguntei como ela entende todo o ruído da IA. Responder? Ela não. Ou não pode.
O que você deveria fazer? Para se familiarizar com o futuro da IA, vale a pena relembrar como as principais empresas entenderam a nuvem e, em particular, como a AWS ajudou a fazer isso acontecer.
A nuvem é fundamental
O primeiro passo para grokking a IA é a nuvem, porque ela permite que você entre na ponta dos pés (se desejar). Anos atrás, o chefe de ciência de dados da AWS, Matt Wood, me disse que a chave para domar o big data (o termo que usamos antes ciência de dadosque foi o termo que usamos antes IA) era aproveitar a infraestrutura elástica. Como ele disse: “Aqueles que compram infraestrutura cara descobrem que o escopo e o domínio do problema mudam muito rapidamente. Quando eles conseguem responder à pergunta original, o negócio já avançou.”
Claro, você ouvirá pessoas como o cofundador da 37Signal, David Heinemeier Hansson, que gosta de criticar a nuvem como cara. Isso não faz sentido. A repatriação na nuvem pode funcionar para uma empresa de crescimento lento como a 37Signals, com cargas de trabalho muito previsíveis, mas é a estratégia absolutamente errada para uma empresa onde a demanda não é previsível, o que é quase a definição do dicionário para qualquer carga de trabalho relacionada à IA. Não há nada mais caro do que a infraestrutura que restringe a sua capacidade de atender à demanda dos clientes.
Voltando a Wood: “Você precisa de um ambiente que seja flexível e que permita responder rapidamente às mudanças nos requisitos de big data.” Novamente, isso é particularmente verdadeiro para IA, onde a maioria das cargas de trabalho será de natureza experimental. De acordo com Wood, “Seu mix de recursos está em constante evolução – se você comprar infraestrutura, ela se tornará quase imediatamente irrelevante para o seu negócio porque estará congelada no tempo. É resolver um problema que você talvez não tenha ou com o qual não se importe mais.”
Novamente, a chave para começar a usar IA é garantir que você esteja construindo com a nuvem, pois isso permitirá a flexibilidade necessária para experimentar seu caminho rumo ao sucesso.
O que vem depois?
A infraestrutura elástica da nuvem permite que as empresas façam grandes apostas sem gastar muito. Como observou Andy Jassy, então CEO da AWS (e atual CEO da Amazon), em uma entrevista de 2019, as empresas que têm mais sucesso com a nuvem são aquelas que “ligam o interruptor” e se tornam grandes, e não incrementais, em sua abordagem. Traduzido para a nossa era da IA, a questão não é pensar pequeno, mas sim “assumir riscos em novas ideias de negócio porque o custo de tentar um monte de iterações diferentes é muito mais baixo…na nuvem”, como ele sugere.
É justo contestar que a IA é exagerada, mas Jassy provavelmente ainda argumentaria (como fez na entrevista) que o custo de ser conservador será substituído por uma startup mais ágil e orientada pela IA. Como ele diz, “(as empresas) precisam pensar sobre o que seus clientes desejam e qual será a experiência do cliente que será exigida ao longo do tempo. E, geralmente, isso requer uma grande mudança ou transformação.” Este é certamente o caso da IA.
Mais uma vez, a nuvem permite que as empresas façam grandes apostas de forma incremental.
Isto nos leva à questão de Quem deve impulsionar essas apostas grandes, mas incrementais. Durante anos, os desenvolvedores foram o centro do poder, inovando rapidamente com software de código aberto e infraestrutura em nuvem. Isso ainda é verdade, mas eles precisam de ajuda, e essa ajuda precisa vir do CEO, enfatizou Jassy. “A maioria dos grandes desafios iniciais da transformação da nuvem não são técnicos”, diz ele, mas sim “sobre liderança – liderança executiva”. Os desenvolvedores são incríveis em descobrir como fazer as coisas, mas ter um mandato do CEO lhes dá licença para inovar.
Facilite para mim
E quanto aos fornecedores? Parece-me que o grande vencedor em IA não será a empresa que criar o LLM mais sofisticado ou desenvolver o banco de dados vetorial mais rico em recursos. Não, será a empresa que facilitará o uso da IA.
Isso não é novo. O grande vencedor na nuvem foi a AWS, porque facilitou o uso de serviços em nuvem pelas empresas. O grande vencedor no início do código aberto/Linux foi o Red Hat, porque removeu a complexidade associada à execução do Linux. O Google não foi o primeiro a desenvolver recursos de busca, mas foi o primeiro a eliminar o incômodo associado a ele. O GitHub não foi o primeiro a oferecer aos desenvolvedores uma maneira de armazenar e compartilhar código, mas foi o primeiro a fazê-lo funcionar para desenvolvedores em grande escala. Etc.
Precisamos disso para IA. Sim, as empresas podem encontrar o caminho para o sucesso da IA através da experimentação na nuvem, mas o grande vencedor na IA provavelmente não será a OpenAI ou quem quer que esteja criando outro LLM. Meu dinheiro está na empresa que simplifica para outras empresas o uso produtivo da IA. Comece o jogo.