Essa tarefa de conexão estava longe de ser impossível: afinal, os LLMs estão nos geradores de texto do coração, e os comandos que esses serviços esperam assumir a forma de texto. Mas construir as ferramentas necessárias para conectar o LLMS a serviços externos acabou sendo uma tarefa assustadora, e muitos desenvolvedores se viram reinventando a roda toda vez que precisavam codificar um conector.
“Se você estava fazendo uma ferramenta ligada há um ano, toda estrutura Agentic tinha sua própria definição de ferramenta”, diz Roy Derks, gerente de produtos principal, experiência de desenvolvedor e agentes da IBM. “Então, se você mudou de estrutura, precisará refazer suas ferramentas. E como as ferramentas são apenas mapeamentos para APIs, bancos de dados ou qualquer outra coisa, era difícil compartilhá -las.”
O MCP se baseia na capacidade da LLMS para fazer chamadas de função, fornecendo uma maneira muito mais padronizada de se conectar a serviços e fontes de dados. “O LLM não está ciente do MCP”, diz Derks. “Ele vê apenas uma lista de ferramentas. Seu loop agêntico, no entanto, conhece o mapeamento do nome da ferramenta para o MCP, então sabe que o MCP é o meu modo de chamar ferramentas. Se minha ferramenta de get-weather está sendo chamada ou sugerida pelo modelo de linguagem grande, sabe que ele deve chamar a ferramenta Get-Weather e, se isso acontecer para ser uma ferramenta de um servidor MCP-usa o MCP.
