A realidade atingiu a máquina de propaganda da IA. Na recente teleconferência de resultados da Alphabet, o CEO Sundar Pichai elogiou a adoção generalizada das soluções de IA generativa (genAI) do Google Cloud, mas com uma ressalva — e uma grande. “Estamos impulsionando um progresso mais profundo no desbloqueio de valor, o que estou muito otimista de que acontecerá. Mas essas coisas levam tempo.” O TL;DR? Há muita discussão sobre genAI e pouca adoção de aplicativos sérios que geram receita.

Provavelmente é melhor assim porque nos dá tempo para descobrir o que diabos queremos dizer com “IA de código aberto”. Isso importa, porque o CEO da Meta, Mark Zuckerberg, e outros nos disseram que o código aberto dominará os modelos de grandes linguagens (LLMs) e a IA, em geral. Talvez. Mas enquanto a OSI e outros estão tentando comitar seu caminho para uma Definição de Código Aberto (OSD) atualizada, participantes poderosos como a Meta estão lançando modelos que definem a indústria, chamando-os de “código aberto” e nem um pouco se importando quando alguns os repreendem vocalmente por afixar um rótulo que não parece se encaixar no OSD. Na verdade, basicamente nenhum dos modelos de hoje é “código aberto” da maneira como tradicionalmente consideramos o termo.

Isso importa? Alguns insistirão que não apenas importa absolutamente, mas é A Coisa Mais Importante. Se for assim, não estamos nem perto de uma solução. Conforme resumido pelo diretor executivo da OSI, Stefano Mafulli, “brincar com um modelo de IA pode exigir acesso ao modelo treinado, seus dados de treinamento, o código usado para pré-processar esses dados, o código que governa o processo de treinamento, a arquitetura subjacente do modelo ou uma série de outros detalhes mais sutis”. Não é uma mera questão de ter acesso ao código. O cerne do problema são os dados.

Você continua usando essa palavra

“Se os dados não são abertos, então o sistema também não é”, argumenta Julia Ferraioli, uma participante do comitê do OSI para definir código aberto para IA. Isso é verdade, ela continua em outro lugar, porque um modelo de IA não é aberto de nenhuma forma útil se você não tiver os dados usados ​​para treiná-lo. Em IA, não existe código sem os dados que o animam e lhe dão propósito.

Nota entre parênteses: Acho um pouco irônico que uma série de funcionários da AWS, incluindo Ferraioli, façam esse argumento, porque é semelhante ao que eu e outros dissemos sobre a nuvem. O que significa software sem as configurações de hardware que lhe dão vida? Alguns, particularmente funcionários das grandes nuvens, acreditam que esse software não pode ser verdadeiramente aberto se dificultar que as nuvens executem o software sem tornar pública sua infraestrutura associada. OK. Mas como isso é tão diferente de eles exigirem dados de outros para que possam executar esses modelos para seus clientes? Não acho que os funcionários da nuvem estejam operando de má-fé. Só acho que eles não foram suficientemente introspectivos sobre o assunto. É por isso que apresentei o caso de que, para corrigir deficiências na IA de código aberto, precisamos revisitar deficiências semelhantes na nuvem de código aberto.

Enquanto isso, as empresas com muitos dados não têm absolutamente nenhum incentivo para se curvar sobre a questão (assim como as empresas de nuvem têm pouco incentivo para capitular sobre questões de copyleft), em grande parte porque não está claro se os desenvolvedores se importam. Um executivo de código aberto da indústria, que pediu para permanecer anônimo, sugere que os desenvolvedores não estão interessados ​​no posicionamento de código aberto. De acordo com ele, “os desenvolvedores de IA não se importam e não querem o sermão” do OSI ou de outros sobre o que significa aberto. Zuckerberg certamente se encaixa nessa descrição. Sem um traço de ironia, ele fez um longo discurso sobre o valor do código aberto: “O caminho para o Llama se tornar o padrão da indústria é ser consistentemente competitivo, eficiente e aberto, geração após geração.”

Exceto que o Llama não é aberto. Pelo menos, não de acordo com Mafulli e outros da persuasão OSI. Novamente, isso importa? Afinal, muitos desenvolvedores estão usando alegremente o Llama 2 do Meta, sem se preocupar que ele não atenda a uma definição rigorosa de código aberto. Ele é aberto o suficiente, aparentemente.

Bom o suficiente? Aberto o suficiente?

Mesmo entre pessoas bem-intencionadas e bem-informadas sobre código aberto, não há consenso sobre o que deve ser aberto em IA para se qualificar como “código aberto”. Jim Jagielski, por exemplo, descarta a ideia de que dados são essenciais para IA de código aberto. Mesmo que gostemos da ideia de abrir dados de treinamento, fazer isso pode abrir todo tipo de complicações de privacidade e distribuição.

O OSI espera ter um rascunho de sua definição de código aberto para IA até outubro. Considerando que estamos quase em agosto e participantes importantes como Ferraioli observam que componentes importantes do OSAID são “lamentavelmente equivocados”, “ambíguos” e “ficaram muito aquém do esperado”, é duvidoso que a indústria tenha muita clareza até outubro. Enquanto isso, a Meta e outros (e basicamente ninguém é tão aberto quanto o OSI gostaria) continuarão a lançar modelos abertos e geralmente os chamarão de “código aberto”. Eles farão isso porque alguns, como os reguladores europeus, querem ver o termo aconchegante “código aberto” aplicado ao software e à IA que eles adotam.

Novamente, isso importa? Será que confundir o que significa código aberto paralisa a indústria? Duvidoso. Os desenvolvedores já estão votando com seus teclados, usando o Llama 2 e outros modelos “abertos o suficiente”. Para que o OSI fique à frente desse momento, ele terá que adotar uma abordagem baseada em princípios, mas pragmática, para o código aberto e parar de seguir os ditames dogmáticos de seus fãs mais vociferantes. Ele não fez isso para a nuvem, e é por isso que temos tanto terreno legal incerto para cobrir para a IA.