Isso não é de código aberto versus fonte fechada. O software de código fechado não tenta se apropriar dos dados que toca. Isso é algo mais. O OpenAI, por exemplo, é claro (ISH) que os usuários possuem as saídas de seus avisos, mas que os usuários não podem usar essas saídas para treinar um modelo concorrente. Isso violaria os termos e condições do OpenAI. Isso não é realmente diferente da lhama de Meta ser aberta para usar – a menos que você esteja competindo em escala.

E ainda assim é diferente. O OpenAI parece estar sugerindo que seus dados de entrada (treinamento) devem ser abertos e sem restrições, mas os dados que outros usam (incluindo dados que o LLMS competitivo reciclados do OpenAI) podem ser fechados. Isso é um novo terreno enlameado e escuro, e não é um bom presságio para a adoção se os clientes corporativos precisarem se preocupar – mesmo um pouco – sobre seus dados de saída pertencentes aos fornecedores de modelos. O coração da questão é a confiança e o controle do cliente, não de código aberto versus fonte fechada.

Exacerbando desconfiança corporativa

O co -fundador da Redmonk, Steve O’Grady, resume muito bem a preocupação corporativa com a IA: “As empresas reconhecem que, para maximizar o benefício da IA, precisam ser capazes de conceder acesso aos seus próprios dados internos”. No entanto, eles “não estavam dispostos a fazer isso em escala” porque não confiam nos fornecedores da LLM com seus dados. O Openai exacerbou essa desconfiança. Os fornecedores que acabarão vencendo serão aqueles que ganham confiança dos clientes. O código aberto pode ajudar com isso, mas, em última análise, as empresas não se importam com a licença; Eles se preocupam com a forma como o fornecedor lida com seus dados. Essa é apenas uma das razões pelas quais a AWS e a Microsoft foram os primeiros a construir negócios em nuvem em expansão. As empresas confiaram nelas para cuidar de seus dados confidenciais.