“Por meio desse processo de aprendizado adaptativo, o modelo refina suas previsões para melhorar a qualidade”, explicou a empresa.

E, finalmente, na fase de melhoria contínua, os usuários da empresa criam dados, que são essencialmente diferentes entradas LLM, interagindo com o modelo, que pode ser usado para otimizar ainda mais o desempenho do modelo.

O TAO pode aumentar a eficiência de modelos baratos

A Databricks disse que usou o TAO para não apenas obter melhor qualidade do modelo do que o ajuste fino, mas também atualizar a funcionalidade de modelos de código aberto baratos, como LLAMA, para atender à qualidade de modelos proprietários mais caros, como GPT-4O e O3-Mini.

“Usando sem rótulos, o TAO melhora o desempenho da LLAMA 3,3 70B em 2,4% em uma ampla referência corporativa”, escreveu a equipe.