Anos atrás, Nicholas Carr argumentou que o Google estava nos tornando estúpidos, que a facilidade de acesso à informação estava reduzindo nossa atenção e geralmente dificultando a realização de “leitura profunda”. Outros temiam que os mecanismos de busca estivessem desviando os leitores dos jornais, coletando o dinheiro que de outra forma financiaria o jornalismo.

Hoje estamos vendo algo semelhante no desenvolvimento de software com grandes modelos de idiomas (LLMS) como o ChatGPT. Os desenvolvedores recorrem aos assistentes de codificação orientados para LLM para conclusão de código, respostas sobre como fazer as coisas e muito mais. Ao longo do caminho, estão sendo levantadas preocupações de que os LLMs sugam dados de treinamento de fontes como o Stack Overflow e desviam os negócios deles, mesmo quando os desenvolvedores cedem o pensamento crítico ao LLMS. Os LLMs estão nos tornando estúpidos?

Quem treina os treinadores?

Peter Nixey, fundador da Intencional.io e um dos 2% dos 2% do Stack Overflow, chama uma pergunta existencial que atormenta LLMs: “O que acontece quando paramos de reunir nosso conhecimento e, em vez disso, despejá -lo diretamente na máquina?” Por “The Machine”, ele está se referindo ao LLMS e, “agrupando nosso conhecimento”, ele está se referindo a fóruns como o Stack Overflow, onde os desenvolvedores fazem e respondem a perguntas técnicas. O ChatGPT e outros LLMs se tornaram “inteligentes” sugando todas essas informações de sites como o Stack Overflow, mas essa fonte está secando rapidamente.