A aprendizagem federada é um marco no aprimoramento do treinamento de IA em modelos colaborativos. Está a mudar a abordagem principal da aprendizagem automática, afastando-se dos métodos de formação tradicionais centralizados e adoptando métodos mais descentralizados. Os dados estão dispersos e precisamos aproveitá-los como dados de treinamento onde eles existirem.

Este paradigma não é nada novo. Eu estava brincando com isso na década de 1990. O que é velho é novo de novo… de novo. A aprendizagem federada permite o treinamento colaborativo de modelos de aprendizado de máquina em vários dispositivos ou servidores, aproveitando seus dados coletivos sem a necessidade de trocá-los ou centralizá-los. Por que você deveria se importar? Segurança e privacidade, é por isso.

Aqui estão os princípios básicos da aprendizagem federada:

  • Descentralização de dados: Ao contrário dos métodos convencionais que exigem que os dados sejam centralizados, o aprendizado federado distribui o modelo para a fonte de dados, usando assim os dados onde eles existem. Por exemplo, se mantivermos dados em um robô de fraturamento para monitorar operações, não há necessidade de migrar esses dados para algum repositório de dados centralizado. Nós aproveitamos isso diretamente do robô. (Este é um caso de uso real para mim.)
  • Preservação da privacidade: o aprendizado federado melhora a privacidade do usuário desde o projeto porque os dados permanecem nos dispositivos dos usuários, como telefones, tablets, computadores, carros ou smartwatches. Isso minimiza a exposição de informações confidenciais, já que passamos diretamente do dispositivo para o modelo de IA.
  • Aprendizado colaborativo: um modelo é capaz de aprender com diversos conjuntos de dados em diferentes dispositivos ou servidores, naturalmente.
  • Utilização eficiente de dados: o aprendizado federado é particularmente útil para domínios de problemas com dados massivos, distribuídos ou confidenciais. Ele otimiza o uso dos dados disponíveis, respeitando as políticas de privacidade nativas do conjunto específico de dados distribuídos.

Esses fatores são úteis para a IA, oferecendo melhor segurança e privacidade. Além disso, não armazenamos os mesmos dados em dois locais diferentes, o que é a prática comum hoje em dia na construção de novos sistemas de IA, como a IA generativa.

A estrutura RoPPFL

A aprendizagem federada oferece a perspectiva promissora de treinamento de modelo colaborativo em vários dispositivos ou servidores sem a necessidade de centralizar os dados. No entanto, ainda existem preocupações de segurança e privacidade, principalmente o risco de vazamento de privacidade de conjuntos de dados locais e a ameaça de ataques de envenenamento de modelos de IA por clientes mal-intencionados.

O que nos salvará? Naturalmente, quando surge um novo problema, devemos criar soluções únicas com nomes e siglas legais. Deixe-me apresentar a estrutura de aprendizagem federada robusta e que preserva a privacidade (RoPPFL), uma solução para enfrentar os desafios inerentes associados à aprendizagem federada em ambientes de computação de ponta.

A estrutura RoPPFL introduz uma combinação de técnicas de privacidade diferencial local (LDP) e técnicas de agregação ponderada robusta (RoWA) baseadas em similaridade. O LDP protege a privacidade dos dados adicionando ruído calibrado às atualizações do modelo. Isto torna extremamente difícil para os invasores inferirem pontos de dados individuais, o que é um ataque de segurança comum contra sistemas de IA.

RoWA aumenta a resiliência do sistema contra ataques de envenenamento, agregando atualizações de modelos com base na sua similaridade, mitigando o impacto de quaisquer intervenções maliciosas. RoPPFL usa uma estrutura hierárquica de aprendizagem federada. Essa estrutura organiza o processo de treinamento do modelo em diferentes camadas, incluindo um servidor em nuvem, nós de borda e dispositivos clientes (por exemplo, smartphones).

Maior privacidade e segurança

RoPPFL representa um passo na direção certa para um arquiteto de nuvem que precisa lidar com essas coisas o tempo todo. Além disso, 80% do meu trabalho hoje em dia é IA generativa, e é por isso que estou trazendo isso à tona, mesmo que seja um jargão acadêmico limítrofe.

Este modelo aborda os desafios simultâneos de segurança e privacidade, incluindo a utilização de dispositivos periféricos, como smartphones e outros dispositivos pessoais, como fontes de dados de formação para sistemas de IA que necessitam de dados. O modelo pode combinar privacidade diferencial local com um mecanismo de agregação único. A estrutura RoPPFL abre caminho para que o paradigma de treinamento de modelo colaborativo exista e prospere sem comprometer a proteção de dados e a privacidade, que está muito em risco com o uso de IA.

Os autores do artigo mencionado acima também são os criadores do framework. Portanto, não deixe de lê-lo se tiver interesse em aprender mais sobre esse assunto.

Menciono isso porque precisamos pensar em maneiras mais inteligentes de fazer as coisas se quisermos projetar, construir e operar sistemas de IA que consomem nossos dados no café da manhã. Precisamos descobrir como construir esses sistemas de IA (na nuvem ou não) de maneira que não causem danos.

Dada a situação atual, em que as empresas implementam primeiro sistemas de IA generativos e depois fazem as perguntas importantes, precisamos de uma reflexão mais sólida sobre como construímos, implementamos e protegemos estas soluções para que se tornem práticas comuns. No momento, aposto que muitos de vocês que estão construindo sistemas de IA que usam dados distribuídos nunca ouviram falar dessa estrutura. Esta é uma das muitas ideias atuais e futuras que você precisa entender.