微信扫码
添加专属顾问
我要投稿
Dify v1.6.0原生集成MCP协议,让AI应用轻松实现双向能力流通,大幅提升开发效率。 核心内容: 1. MCP协议如何标准化AI与外部服务的连接 2. 在Dify中配置和使用MCP服务的三种方式 3. 通过Agent和Workflow实现智能调用与灵活编排
AI 应用正从简单的聊天机器人快速演进为功能丰富的 Agent。要真正发挥作用,AI 必须主动联通外部数据、API、日历和代码库等资源。不过,以往连接不同模型和服务时,通常需要编写大量定制代码,维护成本高且难以扩展。
MCP(模型上下文协议)很好地解决了这一难题,提供了一种标准化的协议接口,让 AI 更轻松地发现和使用外部服务。此前,开发者需要通过插件在 dify 调用 MCP 服务,而在最新版本中,Dify 实现了对 MCP 的原生双向集成。不仅能直接调用外部 MCP 服务,还可以便捷地将 AI 应用发布为 MCP 服务供外部客户端调用,大幅提升集成效率和稳定性,让开发者能轻松扩展和使用应用功能。
开发者现在可直接在 Dify 工具页面配置 MCP 服务,包括本身支持 MCP 的应用(如 Linear、Notion)和第三方集成平台(如 Zapier、Composio)。以 Zapier 为例,单次配置后即可访问超过 8000 个已授权的应用,无需在 Dify 内逐个单独集成。
注意:Dify 目前仅支持基于 HTTP 传输、遵循 2025-03-26 协议版本的 MCP 服务,支持预授权和免授权方式。
https://modelcontextprotocol.io/specification/2025-03-26/basic/authorization
以 Linear 为例,具体配置步骤如下:
1. 进入 Dify 工具页面,点击 “MCP”。
2. 点击“添加 MCP 服务”,填写 Linear MCP 服务的 URL、自定义名称及服务器标识符(用于在工作空间中识别和校验 MCP 服务)
3. 按提示完成服务的授权和验证。授权成功后,即可获得 Linear 全套 22 个管理项目和 issue 的工具,包括创建、更新、查询项目和任务,管理评论、文档、团队及用户信息等。
在提示词中编辑器中规定 Agent 的职责,并在工具中添加 Linear MCP 服务:
“你是一个连接到 Linear 的智能代理,拥有 22 个 API 工具。请根据用户意图灵活使用这些工具。可管理 issue、项目、文档,并支持查询团队、用户和周期信息。”
例如,用户向 Agent 提出创建 issue 并分配给产研团队的请求后,Agent 会识别用户意图,调用相应工具(如 get_team、get_user、create_issue),在指定团队中自动创建 Linear 任务并完成指派。
三、在 Workflow 中灵活编排 MCP 工具
在 Workflow 中使用 MCP 服务有两种方式,分别适用于不同的场景需求:
你可以将上文配置的 “Linear 助手” 作为 Agent 节点添加到 Workflow 中。Agent 会根据用户输入智能分析需求,动态选择并调用合适的 Linear MCP 工具。这种方式特别适合处理复杂多变的任务场景,让 AI 自主决策最佳的执行路径。
例如,构建一个处理用户反馈的 Workflow:首先通过问题分类器自动识别反馈类型,然后将其路由至 3 个专门的 Agent 节点。每个 Agent 负责不同类型的反馈处理:
好评反馈 Agent:将正面评价整理后转发给市场部门,用于营销素材和案例收集
技术问题 Agent:分析错误报告和技术问题,为技术支持团队创建 Bug 任务
产品建议 Agent:汇总用户的功能需求和改进建议,为产品团队生成结构化的需求文档
各 Agent 在接收到对应类型的反馈后,会自动进行内容整理、优先级评估,并通过 Linear MCP 工具在相应部门的项目中创建 issue。过去需要人工逐条阅读、分类、转发的繁琐工作,现在几秒钟内就能完成,让团队能够快速响应用户需求。
MCP 服务也可以作为独立的工具节点直接添加到 Workflow 中。这种方式无需 LLM 参与决策,你可以预先设定工具的调用顺序,精确控制执行流程。这特别适合以下场景:
标准化的业务流程(如创建任务、更新状态、发送通知)
需要确保执行顺序的操作链
对响应时间和成本有严格要求的场景
通过这种方式构建的 Workflow 不仅执行效率更高,还可以进一步扩展。你可以集成知识库来丰富上下文,添加通知插件实现多渠道提醒,或引入其他 MCP 服务实现跨平台协作。最终,你将获得一个功能完善的自动化工作流。
更进一步,Dify 支持将精心构建的 AI 应用(Agent,Workflow 等)反向发布为 MCP 服务。这意味着你的应用不仅可以在 Dify 内部使用,还能被 Claude、Cursor 等 MCP 客户端直接调用,每个应用都成为可复用的标准化 AI 服务。
以 Workflow 为例,在发布之前,你需要完成两个简单的配置:
服务描述:清晰说明该 Workflow 的功能和用途,帮助其他 MCP 客户端的 LLM 准确理解并调用你的服务。
参数说明:为 Workflow 开始节点的各项参数添加详细描述,确保 LLM 能够正确传递所需参数。
完成这些配置后,Dify 会自动生成一个 Server URL。通过这个地址,你的 Workflow 就成为了 MCP 生态中可被任何客户端调用的标准服务。
通过原生集成 MCP,Dify 不仅仅是增加了一项功能,更是在拥抱一个标准。这确保了你今天构建的应用已经为未来互联的 AI 生态系统做好了准备。我们诚邀你探索 Dify v1.6.0 带来的这些强大新功能。未来是互联互通的,而现在就是起点。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-11
Dify 1.6.0 重磅上线:原生MCP 双向集成、结构化输出升级!
2025-07-11
Dify终于全面支持MCP了!就在刚刚,Dify发布V1.6.0版本,并宣布支持Anthropic 的模型上下文协议 (MCP)
2025-07-10
我用Dify打造了批量发票识别助手,一键识别上百张发票,这才是AI识别发票的正确方式
2025-07-10
Dify 中 Function Calling 与 MCP使用不同使用场景对比解析
2025-07-04
Dify中的sandbox服务
2025-07-04
将Dify对接到NextChat中的具体操作和原理
2025-07-03
dify 迎来重大更新!工作流调试工具也太实用了
2025-07-02
一文了解dify如何支持多agent架构
2025-06-25
2025-06-04
2025-04-18
2025-04-28
2025-05-08
2025-06-03
2025-05-08
2025-04-14
2025-04-14
2025-06-02
2025-06-26
2025-06-17
2025-05-29
2025-05-28
2025-05-22
2025-04-27
2025-04-15
2025-03-20