微信扫码
添加专属顾问
我要投稿
掌握Dify中MCP工具的本地开发与部署,深入了解AI集成新标准。 核心内容: 1. MCP协议介绍及其在AI集成中的作用 2. 从零开始开发一个本地MCP服务实例 3. 部署MCP服务并测试其功能
本文以开发一个自定义MCP服务为例,详细演示在dify中使用MCP服务的全流程,在本篇文章中你可以了解到MCP服务编写、docker服务启动,dify的MCP工作流配置。
MCP协议(模型上下文协议)是由Anthropic提出的AI集成开放标准,旨在解决AI工具集成中的"M×N问题"。简而言之,它就像AI领域的USB接口,为各种外部工具、数据源和系统提供标准化连接方案。
pip install mcp
mcp = FastMCP(
name="Demo ?",
port=8090
)
@mcp.tool()
def get_poker_cards(num: int = 5) -> str:
# 定义花色和牌面
suits = ['♠', '♥', '♦', '♣']
ranks = ['A', '2', '3', '4', '5', '6', '7', '8', '9', '10', 'J', 'Q', 'K']
# 创建一副牌
deck = [f"{suit}{rank}"for suit in suits for rank in ranks]
# 随机抽取n张牌
random_cards = random.sample(deck, num)
return",".join(random_cards)
打开Cherry Studio
客户端,下载地址大家可以自行百度。
看样子,测试通过了!我们的大模型成功唤起了发牌员MCP工具,并获取到了要发的10张牌。
COPY requirements.txt .
RUN python -m venv /app/venv && \
. /app/venv/bin/activate && \
pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
FROM base AS prod
COPY --from=build /app/venv /app/venv
COPY app.py /app/app.py
EXPOSE 8090
CMD ["/app/venv/bin/python", "app.py"]
cd /yourproject__path/
docker build -t mcpserver:v0.1 .
docker run -d -p 8090:8090 --network docker_ssrf_proxy_network --name mcpserver mcpserver:v0.1
docker exec -it docker-plugin_daemon-1 bash
curl http://mcpserver:8090/sse
终端中输出:
看样子,测试又通过了!我们已经在dify的服务器上部署好我么你的发牌员MCP工具了。
本文用到的dify版本为1.1.3,需要在插件市场安装以下4个插件
看样子,大模型确实调用了发牌员MCP工具,并成功拿到了工具返回的结果。
完
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-09
用Dash开发基于Dify的Agent Chain(1)
2025-05-09
MinerU教程第一弹丨Dify插件超详细配置攻略和工作流搭建案例,不允许还有人不会
2025-05-09
Dify知识库调优浅聊
2025-05-08
Dify升级指南:1.1.13->1.3.1
2025-05-06
API-to-MCP,并在 Dify 实现调用的实践
2025-04-30
知识融合新范式:Cherry Studio×dify 知识库联动全解析
2025-04-29
Dify 平台集成 Palo Alto Networks 安全插件,为 AI 应用注入企业级安全防护
2025-04-29
Dify→ LLM 节点 说明
2024-12-24
2024-04-25
2024-07-16
2024-07-20
2024-04-24
2024-06-21
2024-05-08
2024-11-15
2024-08-06
2024-05-09
2025-04-27
2025-04-15
2025-03-20
2024-12-19
2024-09-13
2024-09-13
2024-08-28
2024-04-24