Procurando facilitar o desenvolvimento de aplicativos generativos de IA, a Meta está compartilhando suas primeiras distribuições oficiais do Llama Stack, para simplificar a forma como os desenvolvedores trabalham com os grandes modelos de linguagem (LLMs) do Llama em diferentes ambientes.

Lançadas em 25 de setembro, as distribuições Llama Stack empacotam vários provedores de API Llama Stack que funcionam bem juntos para fornecer um único endpoint para desenvolvedores, anunciou Meta em uma postagem no blog. O Llama Stack define os blocos de construção para trazer aplicações generativas de IA ao mercado. Esses blocos de construção abrangem o ciclo de vida de desenvolvimento, desde o treinamento e ajuste fino do modelo até a avaliação do produto e a construção e execução de agentes de IA e aplicativos de geração aumentada de recuperação (RAG) em produção. Um repositório para especificações da API Llama Stack pode ser encontrado no GitHub.

A Meta também está construindo provedores para as APIs Llama Stack. A empresa procura garantir que os desenvolvedores possam montar soluções de IA usando peças consistentes e interligadas entre plataformas. As distribuições Llama Stack têm como objetivo permitir que os desenvolvedores trabalhem com modelos Llama em vários ambientes, incluindo local, nuvem, nó único e dispositivo, disse Meta. O Llama Stack consiste no seguinte conjunto de APIs: