Além disso, Fan disse que a OpenAI deve ter descoberto a lei de escala de inferência há muito tempo, o que a academia está descobrindo recentemente. No entanto, ele ressaltou que produzir o1 é muito mais difícil do que acertar os benchmarks acadêmicos e levantou várias questões.

“Para problemas de raciocínio na natureza, como (o modelo) decide quando parar de pesquisar? Qual é a função de recompensa? Critério de sucesso? Quando chamar ferramentas como o interpretador de código no loop? Como fatorar o custo de computação desses processos de CPU? A postagem de pesquisa deles não compartilhou muito.

A OpenAI também disse em uma das postagens do blog que o novo modelo, que ainda está nos estágios iniciais de desenvolvimento e deve passar por uma iteração significativa, ainda não tem muitos dos recursos que tornam o ChatGPT útil, como navegar na web em busca de informações e enviar arquivos e imagens.