“Diz -se que um modelo é overfit se tiver um bom desempenho nos dados de treinamento, mas não em novos dados”, diz Elvis Sun, engenheiro de software do Google e fundador da Presspulse, uma empresa que usa IA para ajudar a conectar jornalistas e especialistas. “Quando fica muito complicado, o modelo ‘memoriza’ os dados de treinamento, em vez de descobrir os padrões.
Underfitting é quando um modelo é simples demais para capturar com precisão a relação entre variáveis de entrada e saída. O resultado é um modelo que tem um desempenho ruim nos dados de treinamento e novos dados. “A sub -ajuste (acontece) quando o modelo é simples demais para representar a verdadeira complexidade dos dados”, diz Sun.
As equipes podem usar validação cruzada, regularização e a arquitetura de modelo apropriada para resolver esses problemas, diz Sun. A validação cruzada avalia o desempenho do modelo em dados retidos, demonstrando sua capacidade de generalização, diz ele. “As empresas podem equilibrar a complexidade e a generalização do modelo para produzir soluções confiáveis e precisas de aprendizado de máquina”, diz ele. Técnicas de regularização como L1 ou L2 desencorajam o excesso de ajuste, penalizando a complexidade do modelo e promovendo soluções mais simples e amplamente aplicáveis, diz ele.