As funções resultantes usam a descrição do prompt Prompty para construir a interação com o LLM, que você pode encapsular em uma operação assíncrona. O resultado é um aplicativo de IA com muito pouco código além de montar entradas do usuário e exibir saídas do LLM. Grande parte do trabalho pesado é feito por ferramentas como o Semantic Kernel e, ao separar a definição do prompt do seu aplicativo, é possível atualizar interações do LLM fora de um aplicativo, usando o arquivo de ativos .prompty.
Incluir ativos do Prompty em seu aplicativo é tão simples quanto escolher o orquestrador e gerar automaticamente os trechos de código para incluir o prompt em seu aplicativo. Apenas um número limitado de orquestradores são suportados no momento, mas este é um projeto de código aberto, então você pode enviar geradores de código adicionais para dar suporte a cadeias de ferramentas de desenvolvimento de aplicativos alternativos.
Esse último ponto é particularmente importante: o Prompty está atualmente focado na criação de prompts para LLMs hospedados na nuvem, mas estamos mudando de modelos grandes para ferramentas menores e mais focadas, como o Phi Silica da Microsoft, que são projetados para serem executados em unidades de processamento neural em hardware pessoal e de ponta, e até mesmo em telefones.