As recentes atualizações da Oracle em seu OCI Generative AI Service, que compete com serviços semelhantes dos rivais AWS, Microsoft e Google, tornam-na mais sintonizada com as necessidades futuras das empresas, dizem os analistas. Mas a Oracle pode estar muito atrás dos rivais em termos de modelo geral de IA generativa e ofertas de serviços.

“A Oracle pode oferecer às empresas uma abordagem mais simplificada para reduzir despesas e recursos ou comprometimento de tempo para pré-treinar, ajustar e treinar continuamente grandes modelos de linguagem (LLMs) com base no conhecimento ou dados de uma empresa, o que provou ser um obstáculo em muitos dos ambientes empresariais atuais, com exceção de alguns call centers e aplicações de suporte à experiência do cliente”, disse Ron Westfall, diretor de pesquisa do The Futurum Group.

A diferenciação da Oracle, de acordo com Westfall, reside na sua capacidade de impulsionar a inovação generativa de IA em uma empresa, porque se baseia em uma vasta gama de recursos de portfólio integrados em seus aplicativos Fusion e NetSuite, serviços e infraestrutura de IA e aprendizado de máquina (ML). para plataformas de dados, como MySQL HeatWave Vector Store e AI Vector Search no Oracle Database.

Embora a AWS e o Google pareçam incapazes de combater a diversidade de aplicativos empresariais da Oracle diretamente no portfólio, rivais como a IBM estão atrás da Oracle em termos de oferta global de um banco de dados em nuvem, explicou Westfall.

Reduzir custos e complexidade é fundamental

Westfall acredita que a Oracle oferece diferenciais nítidos de preço e desempenho nas principais categorias de bancos de dados em nuvem que podem facilitar a adoção e o dimensionamento de IA generativa em tais ambientes.

Expandindo a premissa de Westfall, Bradley Shimmin, analista-chefe da empresa de pesquisa Omdia, disse que a Oracle está tentando integrar elementos fundamentais de IA generativa em suas ofertas básicas, especialmente bancos de dados, para otimizar recursos computacionais e reduzir custos.

Na esteira da inovação vertiginosa em torno da IA ​​generativa, os provedores de serviços de tecnologia como a Oracle entendem que otimizar o uso de hardware é importante ao implantar um modelo de IA com bilhões de parâmetros em escala e com um grau de latência tolerável, de acordo com Shimmin.

“Estamos enfrentando o mesmo tipo de alerta também nas áreas adjacentes de dados e análises, especialmente à medida que os bancos de dados e as ferramentas de processamento de dados começam a desempenhar um papel cada vez mais importante no apoio a ofertas generativas baseadas em IA, como é o caso com casos de uso como geração aumentada de recuperação”, disse Shimmin.

Embora uma coisa seja construir um pipeline básico de geração aumentada de recuperação (RAG) capaz de indexar alguns PDFs para dar suporte a um LLM de usuário único, é um desafio totalmente novo implementar RAG para petabytes de dados corporativos em constante evolução e fornecer insights desses dados para um público global em menos de um milissegundo, explicou o analista.

“Não é nenhuma surpresa, então, ver tantos fornecedores de bancos de dados, como o MongoDB, adotando recursos de aprendizado de máquina no banco de dados e, mais recentemente, construindo, armazenando e recuperando a incorporação de vetores no mesmo banco de dados onde residem os dados que estão sendo vetorizados. Trata-se de minimizar a complexidade e maximizar os gastos”, disse Shimmin.

O princípio subjacente é reduzir a movimentação de dados entre dois bancos de dados, entre bancos de dados e mídias de armazenamento e entre mídias de armazenamento e chips de inferência de modelo.

Além disso, Shimmin disse que as empresas, em muitos casos, podem ter que manter dois bancos de dados separados, um para vetores e outro para dados de origem, o que será caro, pois terão que pagar um preço no gerenciamento da integração e latência de dados entre os dois. .

“Empresas como a Oracle, que buscaram otimizar sua infraestrutura em nuvem, desde o processamento de banco de dados até a rede de chips e recuperação de dados, parecem bem posicionadas para fornecer valor diferenciado aos seus clientes, reduzindo a complexidade e aumentando o desempenho”, explicou o analista.

Rivais “muito atrás” em modelos e serviços

Embora a estratégia da Oracle possa agradar aos clientes empresariais, Andy Thurai, analista principal da Constellation Research, acredita que a Oracle está “muito atrás” dos seus rivais quando comparada com base nas ofertas globais de IA generativa.

“A opção da Oracle de fornecer serviço hospedado conforme necessário compete com uma oferta muito mais poderosa da AWS, que tem mais opções e funções em comparação com a oferta da OCI”, disse Thurai. Thurai também observou que a Oracle tem uma escassez de LLMs e seu uso é limitado quando comparado aos seus rivais.

No entanto, Thurai afirma que a escolha da Oracle de usar o serviço generativo de IA na Oracle Cloud e no local através da região dedicada OCI é uma proposta única que pode ser interessante para alguns clientes de grandes empresas, especialmente aqueles em setores regulamentados.

“A opção de integração com aplicativos ERP, HCM, SCM e CX da Oracle executados em OCI poderia tornar isso mais atraente, se o preço fosse justo, para sua base de usuários”, disse o analista, acrescentando que não fazer isso ajudaria a AWS a tomar uma decisão posição mais favorável com clientes empresariais.

O que há de novo no serviço de IA generativa da OCI

A Oracle vem implementando sua estratégia de IA generativa de três níveis em diversas ofertas de produtos durante a maior parte do ano. A empresa lançou o OCI Generative AI Service em versão beta em setembro. Hoje, a Oracle introduziu novos modelos da Cohere e Meta, novos agentes de IA, uma nova estrutura de baixo código para gerenciar LLMs de código aberto e disponibilizou o serviço para todos.

Os novos modelos incluem Llama 2 70B da Meta, um modelo de geração de texto otimizado para casos de uso de bate-papo, e as versões mais recentes dos modelos Cohere, como Command, Summarize e Embed. Esses modelos estarão disponíveis em um serviço gerenciado que pode ser consumido por meio de chamadas de API, disse a Oracle em comunicado, acrescentando que esses modelos também podem ser ajustados por meio do serviço atualizado.

Um agente de IA para geração com recuperação aumentada

Além dos novos modelos, a Oracle adicionou novos agentes de IA ao serviço para ajudar as empresas a aproveitar ao máximo seus dados corporativos enquanto usam grandes modelos de linguagem e criam aplicativos generativos baseados em IA.

O primeiro dos agentes de IA introduzidos na versão beta é o agente RAG. Este agente, que funciona de forma semelhante ao LangChain, combina o poder dos LLMs e da pesquisa corporativa construída no OCI OpenSearch para fornecer resultados contextualizados que são aprimorados com dados corporativos, disse Vinod Mamtani, vice-presidente de Generative AI Services da OCI.

Quando um usuário corporativo insere uma consulta em linguagem natural no agente RAG por meio de um aplicativo de negócios, a consulta é passada para o OCI OpenSearch, que é uma forma de pesquisa vetorial ou semântica. O OCI OpenSearch, por sua vez, lê e coleta informações relevantes do repositório de dados de uma empresa. Os resultados da pesquisa são então classificados por um ReRanker LLM, que passa a classificação para um LLM de geração de texto, que responde à consulta em linguagem natural.

O LLM de geração de texto possui verificações para garantir que a resposta retornada está fundamentada ou, em outras palavras, adequada para consumo pelo usuário. Se a consulta retornada não atender aos requisitos de aterramento, o loop será executado novamente, disse a empresa, acrescentando que isso elimina a necessidade de especialistas como desenvolvedores e cientistas de dados.

“As informações recuperadas são atuais – mesmo com armazenamentos de dados dinâmicos – e os resultados são fornecidos com referências aos dados originais”, explicou Mamtani.

As próximas atualizações, com lançamento previsto para o primeiro semestre de 2024, do agente RAG adicionarão suporte para uma gama mais ampla de ferramentas de pesquisa e agregação de dados e também fornecerão acesso ao Oracle Database 23c com AI Vector Search e MySQL Heatwave com Vector Store.

Outros recursos, que também serão lançados no mesmo período, incluem a capacidade de criar um agente de IA a partir do console OCI. Um usuário poderá criar um agente especificando a tarefa que precisa ser realizada e anexando-a a uma fonte de dados, disse Mamtani, acrescentando que esses agentes usarão o Llama 2 ou o Cohere LLMs por padrão.

Agentes de IA baseados na estrutura ReAct

Esses agentes de IA, segundo a Oracle, estão sendo criados com a ajuda do artigo ReAct publicado por pesquisadores da Universidade de Princeton e do Google. Os agentes usam a estrutura ReAct para raciocinar, agir e planejar com base em uma série de pensamentos, ações e observações.

Mamtani disse que esses recursos permitirão que os agentes vão além das tarefas de recuperação de informações e chamem APIs em nome do usuário, bem como automatizem outras tarefas. A Oracle também planeja adicionar agentes multiturno ao serviço que podem ser solicitados a reter a memória de interações passadas para enriquecer ainda mais o contexto do modelo e suas respostas.

A maioria desses agentes e suas ações, segundo a empresa, podem ser adicionadas ao seu conjunto de aplicativos SaaS, incluindo Oracle Fusion Cloud Applications Suite, Oracle NetSuite e aplicativos industriais como Oracle Cerner.

Além disso, em um esforço para ajudar as empresas a usar e gerenciar LLMs com bibliotecas de código aberto, a Oracle está adicionando um novo recurso à sua oferta OCI Data Science, chamada de recurso AI Quick Actions. Este recurso, que estará em versão beta no próximo mês, permite acesso sem código a uma variedade de LLMs de código aberto.