支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Dify v1.6.0:原生集成 MCP,实现 AI 能力的双向流通

发布日期:2025-07-11 11:44:16 浏览次数: 1570
作者:Dify

微信搜一搜,关注“Dify”

推荐语

Dify v1.6.0原生集成MCP协议,让AI应用轻松实现双向能力流通,大幅提升开发效率。

核心内容:
1. MCP协议如何标准化AI与外部服务的连接
2. 在Dify中配置和使用MCP服务的三种方式
3. 通过Agent和Workflow实现智能调用与灵活编排

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

AI 应用正从简单的聊天机器人快速演进为功能丰富的 Agent。要真正发挥作用,AI 必须主动联通外部数据、API、日历和代码库等资源。不过,以往连接不同模型和服务时,通常需要编写大量定制代码,维护成本高且难以扩展。

MCP(模型上下文协议)很好地解决了这一难题,提供了一种标准化的协议接口,让 AI 更轻松地发现和使用外部服务。此前,开发者需要通过插件在 dify 调用 MCP 服务,而在最新版本中,Dify 实现了对 MCP 的原生双向集成。不仅能直接调用外部 MCP 服务,还可以便捷地将 AI 应用发布为 MCP 服务供外部客户端调用,大幅提升集成效率和稳定性,让开发者能轻松扩展和使用应用功能。

使用 MCP 服务的三种方式

一、配置 MCP 服务为工具

开发者现在可直接在 Dify 工具页面配置 MCP 服务,包括本身支持 MCP 的应用(如 Linear、Notion)和第三方集成平台(如 Zapier、Composio)。以 Zapier 为例,单次配置后即可访问超过 8000 个已授权的应用,无需在 Dify 内逐个单独集成。

注意:Dify 目前仅支持基于 HTTP 传输、遵循 2025-03-26 协议版本的 MCP 服务,支持预授权和免授权方式。

https://modelcontextprotocol.io/specification/2025-03-26/basic/authorization

以 Linear 为例,具体配置步骤如下:

1. 进入 Dify 工具页面,点击 “MCP”。

2. 点击“添加 MCP 服务”,填写 Linear MCP 服务的 URL、自定义名称及服务器标识符(用于在工作空间中识别和校验 MCP 服务)

3. 按提示完成服务的授权和验证。授权成功后,即可获得 Linear 全套 22 个管理项目和 issue 的工具,包括创建、更新、查询项目和任务,管理评论、文档、团队及用户信息等。

二、在 Agent 中智能调用 MCP 服务

在提示词中编辑器中规定 Agent 的职责,并在工具中添加 Linear MCP 服务:

“你是一个连接到 Linear 的智能代理,拥有 22 个 API 工具。请根据用户意图灵活使用这些工具。可管理 issue、项目、文档,并支持查询团队、用户和周期信息。”

例如,用户向 Agent 提出创建 issue 并分配给产研团队的请求后,Agent 会识别用户意图,调用相应工具(如 get_team、get_user、create_issue),在指定团队中自动创建 Linear 任务并完成指派。

三、在 Workflow 中灵活编排 MCP 工具

在 Workflow 中使用 MCP 服务有两种方式,分别适用于不同的场景需求:

动态调用:Agent 节点智能决策

你可以将上文配置的 “Linear 助手” 作为 Agent 节点添加到 Workflow 中。Agent 会根据用户输入智能分析需求,动态选择并调用合适的 Linear MCP 工具。这种方式特别适合处理复杂多变的任务场景,让 AI 自主决策最佳的执行路径。

例如,构建一个处理用户反馈的 Workflow:首先通过问题分类器自动识别反馈类型,然后将其路由至 3 个专门的 Agent 节点。每个 Agent 负责不同类型的反馈处理:

  • 好评反馈 Agent:将正面评价整理后转发给市场部门,用于营销素材和案例收集

  • 技术问题 Agent:分析错误报告和技术问题,为技术支持团队创建 Bug 任务

  • 产品建议 Agent:汇总用户的功能需求和改进建议,为产品团队生成结构化的需求文档

各 Agent 在接收到对应类型的反馈后,会自动进行内容整理、优先级评估,并通过 Linear MCP 工具在相应部门的项目中创建 issue。过去需要人工逐条阅读、分类、转发的繁琐工作,现在几秒钟内就能完成,让团队能够快速响应用户需求。

精准编排:将 MCP 工具作为独立节点

MCP 服务也可以作为独立的工具节点直接添加到 Workflow 中。这种方式无需 LLM 参与决策,你可以预先设定工具的调用顺序,精确控制执行流程。这特别适合以下场景:

  • 标准化的业务流程(如创建任务、更新状态、发送通知)

  • 需要确保执行顺序的操作链

  • 对响应时间和成本有严格要求的场景

通过这种方式构建的 Workflow 不仅执行效率更高,还可以进一步扩展。你可以集成知识库来丰富上下文,添加通知插件实现多渠道提醒,或引入其他 MCP 服务实现跨平台协作。最终,你将获得一个功能完善的自动化工作流。

发布应用为 MCP 服务

更进一步,Dify 支持将精心构建的 AI 应用(Agent,Workflow 等)反向发布为 MCP 服务。这意味着你的应用不仅可以在 Dify 内部使用,还能被 Claude、Cursor 等 MCP 客户端直接调用,每个应用都成为可复用的标准化 AI 服务。

以 Workflow 为例,在发布之前,你需要完成两个简单的配置:

  • 服务描述:清晰说明该 Workflow 的功能和用途,帮助其他 MCP 客户端的 LLM 准确理解并调用你的服务。

  • 参数说明:为 Workflow 开始节点的各项参数添加详细描述,确保 LLM 能够正确传递所需参数。

完成这些配置后,Dify 会自动生成一个 Server URL。通过这个地址,你的 Workflow 就成为了 MCP 生态中可被任何客户端调用的标准服务。

写在最后

通过原生集成 MCP,Dify 不仅仅是增加了一项功能,更是在拥抱一个标准。这确保了你今天构建的应用已经为未来互联的 AI 生态系统做好了准备。我们诚邀你探索 Dify v1.6.0 带来的这些强大新功能。未来是互联互通的,而现在就是起点。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询