Carteiro
O Builder de agentes do Postman usa a interface de programação visual de fluxos da plataforma para criar fluxos de trabalho em várias etapas que integram as solicitações de API e as interações AI-nenhuma codificação extensa necessária. Com a integração total do novo protocolo AI do Postman, os desenvolvedores podem incorporar LLMs em suas seqüências de automação para permitir processos dinâmicos, adaptativos e orientados a inteligência. Por exemplo, solicitações de IA podem enriquecer fluxos de trabalho com dados em tempo real, tomar decisões com reconhecimento de contexto e descobrir ferramentas relevantes para atender às necessidades de negócios. Os fluxos também incluem blocos de construção de baixo código para lógica condicional, recursos de script para cenários personalizados e visualização e relatórios de dados integrados, permitindo que as equipes adaptem rapidamente os fluxos de trabalho a requisitos de negócios específicos, reduzem a sobrecarga de desenvolvimento e forneça insights acionáveis mais rapidamente.

Carteiro
Essa abordagem do construtor de agentes suporta rápidas experimentações, testes locais e depuração, efetivamente se encaixando no “loop interno” de um desenvolvedor. Os recursos de colaboração permitem que as equipes rotulem e seçam fluxos de trabalho, facilitando o compartilhamento e explica automações complexas com colegas ou partes interessadas. Para fluxos de trabalho com vários serviços, os desenvolvedores podem confirmar cada etapa em condições realistas usando cenários para garantir consistência e confiabilidade bem antes da implantação final. Os cenários podem ser versionados e compartilhados, simplificando o processo de teste e avaliação de agentes construídos com fluxos.

Carteiro
Os recursos de descoberta e geração de ferramentas da API do Postman adicionam a capacidade de encontrar e integrar as APIs corretas para usar com os agentes da IA. Ao alavancar a rede de mais de 100.000 APIs públicas do Postman, os desenvolvedores podem gerar automaticamente “ferramentas de agentes”, removendo a necessidade de escrever manualmente invólucros ou código de caldeira para essas APIs. Esta etapa de andaime inclui especificar qual estrutura do agente (por exemplo, Node.js, Python, Java) e qual serviço ou biblioteca de alvo LLM o agente usará, mesmo que os SDKs oficiais ainda não existam. Como resultado, as equipes podem se concentrar na lógica principal do fluxo de trabalho, em vez de lutar com detalhes de configuração.