Um cubo com curadoria para ai no dispositivo
A AI Edge Gallery do Google é construída em Litert (anteriormente Tensorflow Lite) e MediaPipe, otimizada para executar a IA em dispositivos com restrição de recursos. Ele suporta modelos de fonte aberta de Hugging Face, incluindo o Gemma 3N do Google-um pequeno modelo de linguagem multimodal que lida com texto e imagens, com suporte de áudio e vídeo no pipeline.
O modelo Gemma 3 1B de 529 MB oferece até 2.585 tokens por segundo durante a inferência de pré-enchimento nas GPUs móveis, permitindo tarefas de subsegundos como geração de texto e análise de imagem. Os modelos são executados totalmente offline usando CPUs, GPUs ou NPUs, preservando a privacidade dos dados.
O aplicativo inclui um laboratório imediato para tarefas de volta única, como resumo, geração de código e consultas de imagem, com modelos e configurações ajustáveis (por exemplo, temperatura, Top-K). A biblioteca RAG permite que os modelos referenciam documentos ou imagens locais sem ajuste fino, enquanto uma biblioteca de chamadas de função permite a automação com chamadas de API ou preenchimento de formulários.