O ritmo acelerado da inovação e a proliferação de novos modelos levantaram preocupações sobre o aprisionamento tecnológico. O aprisionamento ocorre quando as empresas se tornam excessivamente dependentes de um modelo específico com estruturas personalizadas que limitam a sua capacidade de adaptação às inovações. Após seu lançamento, o GPT-4 tinha o mesmo custo do GPT-3, apesar de ser um modelo superior com desempenho muito superior. Desde o lançamento do GPT-4 em março de 2023, os preços do OpenAI caíram mais seis vezes para dados de entrada e quatro vezes para dados de saída com o GPT-4o, lançado em 13 de maio de 2024. É claro que uma análise desse tipo pressupõe que a geração é vendida ao custo ou a um lucro fixo, o que provavelmente não é verdade, e injeções de capital significativas e margens negativas para capturar quota de mercado provavelmente subsidiaram parte disto. No entanto, duvidamos que estas alavancas expliquem todos os ganhos de melhoria e reduções de preços. Até mesmo o Gemini 1.5 Flash, lançado em 24 de maio de 2024, oferece desempenho próximo ao GPT-4, custando cerca de 85 vezes menos para dados de entrada e 57 vezes menos para dados de saída do que o GPT-4 original. Embora a eliminação do aprisionamento tecnológico possa não ser possível, as empresas podem reduzir o seu controlo sobre a adopção da tecnologia utilizando modelos comerciais no curto prazo.

Evitando riscos de aprisionamento

Em alguns aspectos, a amarga lição faz parte desta discussão mais considerável sobre os riscos de aprisionamento. Esperamos que o dimensionamento continue, pelo menos por mais algumas interações. A menos que você tenha um caso de uso específico com potencial comercial óbvio ou opere em um setor de alto risco e altamente regulamentado, adotar a tecnologia antes que todo o potencial de escala seja determinado e esgotado pode ser precipitado.

Em última análise, treinar um modelo de linguagem ou adotar um modelo de código aberto é como trocar uma coleira por uma bola e uma corrente. De qualquer forma, você não vai embora sem deixar um pouco de pele no jogo. Talvez seja necessário treinar ou ajustar um modelo em um domínio restrito com linguagem especializada e conhecimento de cauda. No entanto, o treinamento de modelos linguísticos envolve tempo, recursos computacionais e investimento financeiro substanciais. Isso aumenta o risco para qualquer estratégia. O treinamento de um modelo de linguagem pode custar centenas de milhares a milhões de dólares, dependendo do tamanho do modelo e da quantidade de dados de treinamento. O fardo económico é exacerbado pelas leis de escala não linear da formação de modelos, nas quais os ganhos de desempenho podem exigir recursos computacionais exponencialmente maiores – realçando a incerteza e o risco envolvidos em tais esforços. A estratégia da Bloomberg de incluir uma margem de erro de 30% do seu orçamento de informática sublinha a natureza imprevisível da formação.