支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


企业RAG之构建 FastMCP 服务:基于模型上下文协议的智能服务体系搭建实践

发布日期:2025-07-28 10:31:03 浏览次数: 1525
作者:小陆的大模型之旅

微信搜一搜,关注“小陆的大模型之旅”

推荐语

FastMCP协议助力企业RAG系统升级,打造智能高效的多服务协作框架。

核心内容:
1. FastMCP协议的核心优势与实现原理
2. 基于FastMCP的三大核心组件架构设计
3. 实际应用场景与多服务协作机制

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

在企业级的RAG系统落地过程中,如何构建一个高效、可扩展、智能化的服务调度体系成为了关键挑战。

在本次实践中,我基于 FastMCP 工具,尝试构建一个完整的 多服务协作框架,并将其引入企业RAG架构中,探索其在复杂工具链调度、上下文保持、智能决策等方面的能力。

Creating an MCP Server Using FastMCP: A Comprehensive Guide


为什么选择 FastMCP?

FastMCP 是对 MCP 协议的轻量实现,支持标准化的能力注册、健康检查、工具调用等接口。它具有以下显著优势:

  • 协议清晰、接口规范

  • 多服务协作机制可插拔

  • 天然支持 LLM+Tools 架构

  • 易于构建 Agent 多轮决策流程


系统架构总览

搭建基于 FastMCP 的智能服务系统,包含三个核心组件:

1. MCP Router(路由中心)

系统的“中枢神经”。负责管理所有服务器、分发请求、维护健康状态。

核心职责如下:

  • 服务器管理:注册 / 注销各个 MCP Server

  • 工具发现:收集并维护所有注册服务的工具能力

  • 智能路由:根据工具名称或调用目标,自动分发调用请求

  • 健康监控:定期检测服务可用性,保障系统健壮性

    核心代码如下:

async def route_tool_call(self, tool_name: str, arguments: Dict[strAny], session_id: str) -> Dict[strAny]:    """路由工具调用到对应的服务器"""    target_server = None    for server_name, server_info in self.servers.items():        if server_info.status == "active":            for tool in server_info.tools:                if tool.get("function", {}).get("name") == tool_name:                    target_server = server_info                    break    # ...


2. MCP Server(服务提供者)

每一个 MCP Server 即为一个类似微服务的提供者,提供特定的工具能力。

目前实现了如下服务:

服务名称
功能领域
main_server.py
聊天对话、计算能力
database_server.py
数据库查询
file_server.py
文件操作(读取等)
weather_server.py
天气数据调用

每个 Server 都需遵循 MCP 标准协议,暴露以下三个 REST 接口:

  • /health:返回当前服务状态

  • /capabilities:提供工具能力列表

  • /call_tool:接收具体调用请求,执行功能


通过 start_multi_server.sh 脚本,我们可以一键启动所有服务:

启动 MCP 多服务器系统启动路由中心 (8000)...启动主服务器 (8001)...启动数据库服务器 (8002)...启动文件服务器 (8003)...启动天气服务器 (8004)...

所有 Server 会自动向 Router 注册并上报能力,系统即刻具备完整工具协同能力。

3. Intelligent MCP Client(智能客户端)

连接 LLM 与 MCP 服务的桥梁,具备如下功能:

  • 获取可用工具向路由中心查询所有注册服务器的工具列表

  • LLM 决策使用 chat_with_functions 方法,让 DeepSeek 模型分析用户查询并决定是否需要调用工具

  • 工具调用如果需要工具,LLM 会生成 tool_calls 结构

  • 路由执行通过路由中心调用对应的工具

  • 结果整合:将工具执行结果反馈给 LLM,生成最终用户回复


我们通过问题:查询知识库列表来举例一下处理逻辑:

1. 工具识别 :LLM 识别出需要调用数据库查询工具

2. 工具调用 :

   调用工具: query_knowledge_bases,参数: {}   工具调用路由: http://localhost:8000/call_tool   请求数据: {'tool_name':    'query_knowledge_bases', 'arguments': {},    'session_id': 'default'}

3. 路由转发 :路由中心将请求转发给 database_server

4. 工具执行 :数据库服务器执行查询,返回 6 个知识库的详细信息

5. 结果处理 :LLM 将工具返回的 JSON 数据转换为用户友好的格式

输出结果: 系统成功查询到 6 个知识库,包括智能客服数据库、用户手册、简历知识库等,并格式化展示给用户。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询