Falsas percepções
No cerne da lavagem aberta está uma distorção dos princípios de abertura, transparência e reutilização. A transparência na IA implicaria documentar publicamente como os modelos são desenvolvidos, treinados, ajustados e implantados. Isto incluiria acesso total aos conjuntos de dados, pesos, arquiteturas e processos de tomada de decisão envolvidos na construção dos modelos. A maioria das empresas de IA fica aquém deste nível de transparência. Ao liberar seletivamente partes de seus modelos – muitas vezes despojadas de detalhes importantes – eles criam uma ilusão de abertura.
A reutilização, outro pilar da abertura, é praticamente a mesma coisa. As empresas permitem o acesso aos seus modelos através de APIs ou versões leves para download, mas impedem uma adaptação significativa ao vincular o uso a ecossistemas proprietários. Esta versão parcial oferece um nível calculado de reutilização que maximiza a extração de valor da grande nuvem, ao mesmo tempo que minimiza o risco dos concorrentes.
Por exemplo, os modelos GPT da OpenAI são acessíveis, mas suas integrações estão invariavelmente vinculadas a clientes web específicos, bibliotecas de manutenção e aplicativos de propriedade da empresa. Os desenvolvedores empresariais não recebem liberdade para ajustar, adaptar ou redistribuir esses modelos, o que entra em conflito com os acordos de licenciamento. Um desenvolvedor amigo meu disse melhor quando disse: “Essa coisa é tão aberta quanto um cofre de banco”.