Se a chave de fenda fosse inventada pela indústria de tecnologia hoje, seria amplamente implantada para uma variedade de tarefas, incluindo pregos martelados. Desde a estréia do ChatGPT, tem havido fervor e reação contra grandes modelos de idiomas (LLMS). De fato, muitas adaptações da tecnologia parecem desviadas, e suas capacidades são exageradas, dada sua frequente falta de veracidade. Isso não quer dizer que não haja muitos usos excelentes para um LLM, mas você deve responder a algumas perguntas importantes antes de fazer o furo completo.
Um LLM será melhor ou pelo menos igual às respostas humanas?
Alguém gosta dos chatbots de atendimento ao cliente que não respondem a nenhuma pergunta que ainda não esteja na primeira página do site? Por outro lado, conversar com uma pessoa no atendimento ao cliente que acabou de ler um script e não tem o poder de ajudar é igualmente frustrante. Qualquer implantação de um LLM deve testar se é igual ou melhor ao chatbot ou respostas humanas que está substituindo.
Qual é a exposição de responsabilidade?
Em uma sociedade litigiosa, qualquer novo processo ou tecnologia deve ser avaliado contra seu potencial de exposição legal. Existem lugares óbvios para cautela, como médico, direito ou finanças, mas e uma resposta gerada por LLM que direciona as pessoas a uma política ou conselhos em potencial que são enganosos ou não permitidos? Em muitos lugares, políticas ou gerenciamento de más empresas significaram que as respostas geradas pelo ser humano resultaram em ações de ação coletiva. No entanto, um LLM treinado ou restrito incorretamente pode gerar respostas para um grande número de usuários e criar responsabilidade não intencional.