Dois processos de ação coletiva foram movidos por autores contra a Meta em 2023, alegando o uso indevido de seus livros protegidos por direitos autorais como material de treinamento para a llama. Os tribunais não foram muito simpáticos com os autores. O primeiro caso, Kadrey et al. v. Meta plataformas, foi arquivado em julho de 2023. No segundo, Chabon v. Meta plataformas, foi arquivado em setembro de 2023. Os dois casos foram combinados e o caso combinado foi demitido em todos, exceto por uma contagem, violação direta de direitos autorais, em 2023 de dezembro. Ainda é arrastado com queixas alteradas para outro ano; Em setembro de 2024, o juiz ordenou “com base em registros anteriores, o tribunal tem a impressão de que não há nenhuma disputa real sobre se a meta -alimentada com direitos autorais para seus programas de IA sem autorização e que a única questão legal real a ser apresentada no julgamento sumário é se isso constituiu” uso justo “no significado da lei de copyright”. O julgamento sumário foi agendado para março de 2025, embora tenha havido muitas atividades de ambos os lados até fevereiro de 2025.
Abaixo, discutirei o progresso que a Meta AI fez com a família de modelos LLAMA desde o outono de 2023. Observe que eles não são mais apenas modelos de idiomas. Alguns modelos são multimodais (entradas de texto e visão, saída de texto) e alguns podem interpretar as ferramentas de código e chamadas. Além disso, alguns modelos de lhama são componentes de segurança que identificam e mitigam ataques, projetados para serem usados como parte de uma pilha de lhama. Os seguintes redação de modelo são condensados dos cartões de modelo da Meta AI.
Guarda de lhama 1
O LLAMA Guard é um modelo de salvaguarda de entrada e saída de parâmetros 7B. Ele pode ser usado para classificar o conteúdo nas entradas LLM (classificação PROMENTE) e nas respostas LLM (classificação de resposta).