Abra

Não está claro como resolvemos esse problema iminente. Ainda estamos no “Uau, isso é legal!” fase dos assistentes de codificação de IA, e com razão. Mas, em algum momento, o imposto que estamos pagando se tornará evidente e precisaremos descobrir como se livrar do buraco que estamos cavando.

Uma coisa parece clara: tanto quanto as opções de fonte fechada podem ter funcionado no passado, é difícil ver como elas podem sobreviver no futuro. Como Gergely Orosz postula, “os LLMs serão melhores em idiomas em que têm mais treinamento” e quase por definição, eles terão mais acesso às tecnologias de código aberto. “O código-fonte aberto é um treinamento de alta qualidade”, argumenta ele, e morrendo de fome nos LLMs dos dados de treinamento, travando o código, a documentação etc., é uma estratégia terrível.

Portanto, esse é um bom resultado desse loop de feedback de LLM aparentemente inevitável: mais código aberto. Ele não resolve o problema de o LLMS ser tendencioso em relação ao código mais antigo e estabelecido e, assim, inibir a inovação, mas pelo menos nos empurra na direção certa para o software, geralmente.