Agora você está pronto para começar a treinar seu modelo ajustado. Este é um processo em lote e, como requer recursos significativos, seu trabalho pode ficar na fila por algum tempo. Depois de aceita, uma execução pode levar várias horas, especialmente se você estiver trabalhando com um modelo grande e complexo e com um grande conjunto de dados de treinamento. As ferramentas do Azure AI Foundry permitem-lhe ver o estado de um trabalho de ajuste fino, mostrando resultados, eventos e os hiperparâmetros utilizados.

Cada passagem pelos dados de treinamento produz um ponto de verificação. Esta é uma versão utilizável do modelo com o estado atual de ajuste para que você possa avaliá-los com seu código antes da conclusão do trabalho de ajuste fino. Você sempre terá acesso aos três últimos resultados para poder comparar diferentes versões antes de implantar sua escolha final.

Garantir que modelos ajustados sejam seguros

As próprias regras de segurança de IA da Microsoft se aplicam ao seu modelo ajustado. Ele não é tornado público até que você opte explicitamente por publicá-lo, com teste e avaliação em espaços de trabalho privados. Ao mesmo tempo, seus dados de treinamento permanecem privados e não são armazenados junto com o modelo, reduzindo o risco de vazamento de dados confidenciais por meio de ataques imediatos. A Microsoft verificará os dados de treinamento antes de serem usados ​​para garantir que não contenham conteúdo prejudicial e abortará um trabalho antes de ser executado se encontrar conteúdo inaceitável.