給 MCP 加上 RAG,工具準確率提升 200-,起飛~

大型語言模型(LLMs)在有效利用越來越多的外部工具(如模型上下文協議(MCP)所定義的工具)方面存在困難,這是由於提示膨脹和選擇複雜性造成的。因此引入了 RAG-MCP,這是一個檢索增強生成框架,通過卸載工具發現來克服這一挑戰。

提示膨脹與 MCP 壓力測試

RAG-MCP 框架

  1. 檢索(Retrieval):使用輕量級 LLM(如 Qwen)對用戶任務描述進行編碼,並在 MCP 索引中執行語義搜索,返回與任務最相似的前 k 個候選工具。

  2. 驗證(Validation):對每個檢索到的 MCP,生成少量示例查詢並測試其響應,以確保其基本兼容性(可選步驟)。

  3. 調用(Invocation):僅將最佳 MCP 的描述(包括工具使用參數)注入 LLM 提示中,LLM 隨後通過函數調用接口執行任務。

三步流程圖

  1. 用戶任務輸入:用戶的自然語言任務被編碼並提交給檢索器。

  2. 檢索器選擇和驗證 MCP:檢索器在 MCP 索引中搜索,按語義相似性對候選工具進行排序,並通過合成示例測試每個工具的兼容性(可選)。

  3. LLM 執行任務:LLM 僅接收選定 MCP 的描述和參數,並通過函數調用接口執行任務。

實驗結果

更多信息:《動手設計 AI Agents:CrewAI 版》、《高級 RAG 之 36 技》、新技術實戰:中文 Lazy-GraphRAG/Manus+MCP/GRPO+Agent、大模型日報 / 月報、最新技術熱點追蹤解讀(GPT4-o / 數字人 / MCP/Gemini 2.5 Pro)

https://arxiv.org/pdf/2505.03275
RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/c8VlvlEG0E4gqdykOK4cUw