O Google abriu o acesso à janela de contexto de 2 milhões de tokens do modelo Gemini 1.5 Pro AI. A empresa também está dando aos desenvolvedores acesso a recursos de execução de código na API Gemini e disponibilizando o modelo Gemma 2 no Google AI Studio.
Esses anúncios foram feitos em 27 de junho. A janela de contexto de 2 milhões de tokens do Gemini 1.5 Pro, anteriormente disponível em lista de espera, agora está disponível para todos os desenvolvedores.
O Google observou que à medida que a janela de contexto cresce, também aumenta o potencial de custo de entrada. Para ajudar os desenvolvedores a reduzir custos em tarefas que usam os mesmos tokens em vários prompts, o Google introduziu o cache de contexto na API Gemini para Gemini 1.5 Pro e Gemini 1.5 Flash.
Para desbloquear recursos de raciocínio matemático e de dados para desenvolvedores, o Google também habilitou a execução de código no Gemini 1.5 Pro e Gemini 1.5 Flash. O recurso de execução de código permite que o modelo execute código Python e aprenda iterativamente a partir dos resultados até que uma entrada final desejada seja alcançada. Isso é considerado um primeiro passo à frente com a execução de código como um recurso do modelo. Ele está disponível por meio da API Gemini e no Google AI Studio em “configurações avançadas”.
O Google também informou que disponibilizou o modelo Gemma 2 no Google AI Studio para experimentação e está trabalhando para oferecer ajuste para Gemini 1.5 Flash a todos os desenvolvedores. O ajuste de texto no Gemini 1.5 Flash agora está pronto para red teaming e será implementado gradualmente para todos os desenvolvedores. Todos os desenvolvedores terão acesso ao ajuste do Flash Gemini 1.5 por meio da API Gemini e no Google AI Studio em meados de julho, disse a empresa.