微信扫码
添加专属顾问
我要投稿
深入探索AI工程中的MCP和ACP协议,掌握大型语言模型的先进上下文管理和智能体通信技术。核心内容:1. MCP协议的定义、核心功能及实施特性2. MCP在工程应用场景中的具体作用3. ACP协议的设计、架构和通信机制
MCP[1](Model Context Protocol,模型上下文协议)是由Anthropic公司提出的一种标准化接口,用于向大型语言模型(LLMs)提供结构化的实时上下文信息。
MCP允许你将外部资源(例如文件、数据库行或API响应)直接注入到提示词或工作内存中。所有数据都通过标准化接口传输,使得你的大型语言模型(LLM)保持轻量且整洁。
MCP还支持模型动态调用工具。你可以注册如 searchCustomerData
或 generateReport
等功能,LLM可按需调用它们。就像给AI配备了一套工具箱,但无需将工具硬编码进模型内部。
无需将所有细节堆进提示词中,MCP能够动态组装关键上下文。它支持模块化、实时构建提示词——更智能的上下文、更少的token、更优的输出。
•基于HTTP(S)协议,通过JSON格式描述功能能力•设计为模型无关(model-agnostic),任何具备兼容运行时的LLM均可使用MCP兼容服务器•与API网关及企业级认证标准兼容(例如OAuth2、mTLS等)
➀ LLM与内部API集成
支持安全、只读或交互式访问结构化的业务数据,避免暴露原始接口。
➁ 企业级智能体(Enterprise Agents)
为自主智能体提供来自Salesforce、SAP或内部知识库等工具的运行时上下文信息。
➂ 动态提示词构建(Dynamic Prompt Construction)
根据用户会话、系统状态或任务流程逻辑动态生成提示词。
ACP(Agent Communication Protocol,智能体通信协议)是一个开放标准,最初由 BeeAI 和 IBM 提出,旨在支持同一本地或边缘环境中多个 AI 智能体之间的结构化通信、发现与协调。
与面向云的协议(如 A2A)或上下文路由协议(如 MCP)不同,ACP 专为本地优先(local-first)和实时智能体编排而设计,强调最小化网络开销,并实现运行时中多智能体之间的紧密集成。
ACP 定义了一个去中心化的智能体环境,其核心特点包括:
•每个智能体通过本地广播/发现机制发布其身份、能力和状态;•智能体之间通过事件驱动的消息系统进行通信,常见的方式包括本地总线(local bus)或进程间通信(IPC)系统;•可选的运行时控制器可用于协调智能体行为、汇总遥测数据并执行运行策略;ACP 智能体通常作为轻量级、无状态的服务或容器运行,并共享通信底层设施。
•设计适用于低延迟场景(如本地编排、机器人系统、离线边缘AI);•可通过 gRPC、ZeroMQ 或自定义运行时总线实现;•强调本地自治性(Local Sovereignty)——无需依赖云端或注册外部服务;•支持能力类型(capability typing)和语义描述(semantic descriptors),用于自动化任务路由。
➀ 边缘设备上的多智能体编排
适用于无人机、物联网集群或机器人舰队等场景中的多智能体实时协作。
➁ 本地优先的LLM系统
支持本地协调模型调用、传感器输入与动作执行,实现低延迟响应。
➂ 自治型运行时环境
在无法依赖集中式云基础设施的情况下,智能体仍能自主协调运行。
简而言之,ACP 提供了一个本地运行时协议层,适用于模块化AI系统 —— 它优先考虑低延迟协调、系统弹性和可组合性。对于注重隐私、自主运行或以边缘为先的部署环境(而非云优先方案),ACP 是天然契合的选择。
A2A 协议[2]由 Google 提出,是一种跨平台规范,旨在使 AI 智能体能够在异构系统中进行通信、协作与任务委派。
? 官方链接:google.github.io[3]
与强调本地优先的 ACP 或专注于工具集成的 MCP 不同,A2A 聚焦于横向互操作性——它标准化了来自不同厂商或运行环境的智能体如何通过开放网络交换能力并协调工作流。
A2A 定义了一种基于 HTTP 的通信模型,将智能体视为可互操作的服务。每个智能体都会公开一个“Agent Card”(智能体卡片)——这是一个机器可读的 JSON 描述文件,包含智能体的身份、功能、接口端点和认证要求。
智能体利用这些信息实现以下能力:
•程序化发现彼此•协商任务与角色分工•交换消息、数据以及流式更新
虽然原则上 A2A 对传输层协议没有限制,但当前标准指定使用 HTTPS 上的 JSON-RPC 2.0 作为核心交互机制。
以 JSON 文档形式描述一个智能体的能力、接口端点、支持的消息类型、认证方式以及运行时元数据。
每个智能体可以作为客户端(任务发起者)、服务端(任务执行者)或两者兼具,从而支持任务的动态路由与协商。
支持包含上下文信息的多段任务、多轮交互中的流式输出(通过 SSE 实现)以及持久性资源(如文件、知识片段)传输。
智能体可根据下游智能体的能力自适应消息格式、内容粒度与可视化方式。
•基于 OAuth 2.0 和 API Key 的授权机制•能力范围限定接口(capability-scoped endpoints):智能体仅暴露其声明交互所需的功能•支持“黑箱模式”(opaque mode):隐藏内部逻辑,仅公开可调用的服务接口
•天然适配 Web 环境:基于 HTTP、JSON-RPC 和标准 Web 安全机制构建•模型无关:适用于任何实现该协议的智能体系统,无论是否基于 LLM•支持任务流式处理与多轮协作:数据负载轻巧,支持实时交互与高效协同
➀ 跨平台智能体生态系统
适用于来自不同团队或厂商的智能体需要安全互操作的场景。
➁ 云原生AI环境中的分布式智能体编排
如在 Vertex AI、LangChain、HuggingFace Agents 等平台中进行智能体协同管理。
➂ 多智能体协作框架
支持企业级AI工作流中多个系统(如CRM、HR、IT智能体)之间的协作对接。
发起方 | |||
核心用途 | |||
通信架构 | |||
消息机制 | |||
部署环境 | |||
是否模型依赖 | |||
适配性 | |||
安全机制 | |||
典型应用场景 | |||
代表平台/项目 |
A2A 和 MCP 并不是在彼此竞争 —— 它们在解决智能代理 AI 拼图中完全不同的部分,实际上它们彼此契合得非常好。
可以把 MCP 想象成一个让 AI 代理接入世界的协议。它让代理能够访问文件、API、数据库 —— 基本上,就是它们完成有用工作所需的全部结构化上下文。无论是获取实时销售数据,还是生成定制报告,MCP 都处理与工具和数据的连接。
现在再加上一层 A2A。这是代理开始协作的地方。A2A 提供了一个共享的语言和一套规则,让代理能够彼此发现、委派任务,并协商如何合作 —— 即使它们是由不同厂商构建,或运行在不同平台上。
所以可以用一种简单的方式来理解:
•⟢ MCP 让 AI 连接工具•⟢ A2A 让 AI 连接其他 AI
它们共同构建了一个强大且模块化的基础,用于打造智能且协同工作的系统。
接下来是 ACP,它采取的是完全不同的方式。ACP 关注的是 本地优先的代理协同 —— 完全不依赖云端。
它不是通过 HTTP 和基于 Web 的发现机制,而是让代理在一个共享运行时中彼此发现并通信。
这对于以下场景非常合适:
•带宽受限或需要低延迟的环境(比如机器人或设备端助手),•对隐私要求较高,希望所有操作都保持离线,•或部署在无法接入互联网的场所(如工厂车间、边缘节点)。
ACP 并不是要与 A2A 竞争 —— 它只是填补了一个不同的空白。
但在某些部署环境中,尤其是受严格控制的场景,ACP 有可能完全取代 A2A,因为它跳过了基于 Web 协议的开销,直接在本地完成任务。
随着越来越多的团队开始采用这些协议,未来可能呈现出几种不同的走向。
✅ 最佳情况?
我们看到的是融合趋势。
想象一下一个统一的智能代理平台:A2A 处理代理之间的通信,MCP 管理工具和数据的访问,而 ACP 风格的运行时用于边缘或离线场景。
一切都能顺畅协同,开发者无需担心背后具体使用的是哪个协议。
❌ 最差情况?
事情走向碎片化。
不同厂商推动各自版本的 A2A 或 MCP,最终变成一团乱麻 —— 就像早期的 Web 服务那样,不同系统之间无法互通,除非写很多“胶水代码”进行桥接。
⚖️ 中间道路?
开源工具和中间件也许能拯救局面。
这类项目位于代理和协议之间,对协议差异进行抽象,向开发者提供一个干净统一的 API —— 底层则根据代理所处的环境和运行方式,自动完成协议转换。
简而言之:我们还处在早期阶段。但我们今天构建和采纳这些标准的方式,将决定未来 AI 代理是成为一个协同一致的生态系统,还是沦为一个孤岛林立的拼贴世界。
山行AI希望本文对你有所帮助,本文由笔者翻译整理自:https://medium.com/@elisowski/what-every-ai-engineer-should-know-about-a2a-mcp-acp-8335a210a742,请帮忙点赞、转发!
[1]
MCP: https://modelcontextprotocol.io/introduction[2]
A2A 协议: https://github.com/google/A2A[3]
官方链接:google.github.io: https://google.github.io/
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-05-23
2025-05-23
2025-05-23
2025-05-18
2025-05-18
2025-05-17
2025-05-13
2025-05-13