OpenAI lançou seu modelo mais recente, GPT-4o, em 13 de maio de 2024.

Você pode encontrar a página de anúncio aqui.

No geral, já chamou muita atenção, a maior parte centrada no uso multimodelo, onde utiliza a voz como feedback sobre o que é capturado com a câmera do telefone.

A impressionante demonstração das capacidades multimodais do GPT-4o

Coletamos alguns fatos e estatísticas. E, claro, também já implementamos dentro da nossa plataforma SEO.AI.

A principal conclusão de nosso próprio uso é que ele é aproximadamente 100-120% mais rápido que o GPT-4 Turbo e até um pouco mais rápido que o modelo anterior mais rápido, o GPT3.5 Turbo.

Principais fatos sobre o GPT-4o

  • Capacidades multimodais: GPT-4o pode processar e gerar entradas e saídas de texto, áudio, imagem e vídeo.
  • Tempo de resposta: pode responder a entradas de áudio em apenas 232 milissegundos, com uma média de 320 milissegundos.
  • Desempenho: Corresponde ao desempenho do GPT-4 Turbo em texto e código em inglês, com melhorias significativas em idiomas diferentes do inglês.
  • Custo e velocidade: O GPT-4o é 50% mais barato e muito mais rápido na API do que o modelo top anterior (GPT-4 Turbo).
  • Integração de modelo: combina processamento de texto, visão e áudio em uma única rede neural.
  • Compreensão aprimorada: Melhor compreensão de visão e áudio em comparação com os modelos existentes.
  • Pontuações de avaliação:
    • Atinge 88,7% em COT MMLU de 0 disparos para questões de conhecimentos gerais.
    • Estabelece novas pontuações altas em recursos multilíngues, de áudio e de visão.
    • Supera o Whisper-v3 em reconhecimento de fala e tradução.
  • Tokenização de idioma: compactação de token aprimorada em 20 idiomas, reduzindo o número de tokens necessários.
  • Segurança: Recursos de segurança integrados, incluindo filtragem de dados de treinamento e refinamento do comportamento do modelo pós-treinamento.
  • Teste Externo: Testado extensivamente com mais de 70 especialistas externos em vários domínios.
  • Disponibilidade:
    • Implementando recursos de texto e imagem no ChatGPT.
    • Disponível no nível gratuito e para usuários Plus com limites de mensagens mais altos.
    • Os desenvolvedores podem acessar o GPT-4o na API. Os recursos de áudio e vídeo serão lançados em breve para parceiros confiáveis.

Se você estiver usando ChatGPT para SEO (você realmente deveria considerar SEO.AI para obter um melhor fluxo de trabalho e insights de SEO), fiz uma breve revisão sobre como usar GPT-4o para SEO.