A Meta disse que fez parcerias com empresas como Accenture, AWS, AMD, Anyscale, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Microsoft Azure, Nvidia DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI e o Projeto vLLM da UC Berkeley para tornar a família de modelos Llama 3.1 disponível e mais simples de usar.

Embora provedores de serviços de nuvem como AWS e Oracle forneçam os modelos mais recentes, parceiros como Groq, Dell e Nvidia permitirão que os desenvolvedores usem técnicas de geração de dados sintéticos e geração aumentada de recuperação avançada (RAG), disse Meta, acrescentando que a Groq otimizou a inferência de baixa latência para implantações em nuvem e que a Dell alcançou otimizações semelhantes para sistemas locais.

Outros modelos grandes, como Claude, Gemini e GPT-4o, também são atendidos via APIs.