A execução de uma inferência Pytorch é relativamente simples, com apenas 35 linhas de código necessárias para baixar o modelo, carregá -lo em pytorch e executá -lo. Ter uma estrutura como essa para testar novos modelos é útil, especialmente uma que é fácil de correr.
Embora seja bom ter suporte à NPU, isso exigirá mais trabalho no projeto Pytorch a montante, pois está se concentrando no uso do CUDA no NVIDIA GPUS. Como resultado, houve relativamente pouco foco nos aceleradores de IA neste momento. No entanto, com a crescente popularidade do silício como o Hexagon da Qualcomm e as NPUs na última geração de conjuntos de chips Intel e AMD, seria bom ver a Microsoft adicionar suporte completo para todas as capacidades do hardware copilot+ PC de seus parceiros e de seus parceiros.
É um bom sinal quando queremos mais, e ter uma versão de braço do Pytorch é uma parte importante da cadeia de ferramentas de desenvolvimento de endpoint necessária para criar aplicativos úteis de IA. Ao trabalhar com as ferramentas usadas por serviços como abraçar o rosto, podemos experimentar um grande número de modelos de IA de código aberto, testá -los e ajustá -los em nossos dados e em nossos PCs, fornecendo algo que é muito mais do que outro chatbot.