微信扫码
添加专属顾问
我要投稿
MCP协议半年成绩单:从质疑到繁荣,Agent生态迎来关键转折点。 核心内容: 1. MCP协议半年来的重大技术升级与安全改进 2. 全球开发者生态爆发式增长与商业化进程 3. AI模型与云服务的深度适配推动行业标准化
2024年11月份,Anthropic推出了MCP(Model Context Protocol,模型上下文协议),一度被推崇者誉为是“Agent时代的HTTP协议”,是Agent互联网的核心基础设施。
半年过去,MCP引发了行业狂欢,也有很多质疑:支持者积极参与其中,从开源社区、大公司、明星Agent等等,都在第一时间拥抱了MCP协议;质疑者则在实际试用后发现,“MCP当前的体验简直像儿戏”——需要本地跑一堆Server,可靠性堪忧,安全机制薄弱。
MCP这座Agent时代的“桥”究竟稳不稳?过去半年,MCP协议演进到了什么程度?它为AI生态带来了哪些看得见和看不见的变化?
本文尝试从显式(看得见的变化)和隐式(看不见的变化)两个大维度,多个小维度进行分别阐述,希望给读者一个比较综合全面的图景。
一分钟速度(读了跟没读一样)版本:
欢迎关注我和我一起畅聊AI
短短半年内,MCP协议本身经历了显著升级,让这座“桥梁”愈发稳固。去年11月的初版只是起点,2025年3月26发布的新规范全面完善了安全机制和传输机制;最新的Draft草案,则更多集中在协议能力和交互机制上。具体的升级对比,可以参考下面表格。
主要版本变化对比表
可以看到,这些改进让MCP在安全、实时、多模三个维度更趋成熟——曾经被诟病的权限与隔离问题开始有了解决方案,并在持续地完善和演进中。
事实上,标准的力量在于持续迭代与开放共建。MCP发布仅半年,Anthropic便携手社区快速完善规范,并通过GitHub提案推动标准跟踪。这也解释了为何一个新协议能在短期内获得行业关注——底层规则的进化,为整个生态打下了更牢固的基础。
如果说协议是桥梁的设计图,那么MCP Server生态的繁荣就是桥上车水马龙的盛景。
过去半年里,全球开发者热情高涨,各类MCP Server如雨后春笋般涌现。Hugging Face社区数据显示,截至2025年2月已有超过1000个MCP Server开源发布,涵盖数据库查询、图像处理、支付系统等众多场景。更令人惊叹的是,随着OpenAI、国内大厂等加入推进,到2025年6月社区贡献的MCP Server数量已从千余激增至上万个。
几乎所有我们能想到的数据源、办公软件、IoT设备,都有人为其造好了MCP接口。这些Server以轻量服务程序的形式存在,连接具体数据库、文件系统、API或设备,为AI提供标准化的访问能力。换句话说,曾经每一个工具都需要单独适配,如今都化作了可以被AI随取随用的“即插即用”模块。
涵盖领域广
目前MCP Server已覆盖信息获取(如Web搜索、文档检索)、生产力工具(如Office套件插件)、开发运维(如代码库访问、数据库查询)、跨模态AI(如语音合成、图像生成)等方方面面。
典型例子如官方参考服务器中的Filesystem(文件系统读写)、Fetch(网页抓取)、Memory(知识存储)等,满足了基础能力需求;
社区则贡献了丰富的垂直工具,例如GitHub官方MCP Server提供代码仓库操作、Meilisearch让LLM自然语言查询向量数据库、ElevenLabs开放AI配音能力、OpenAI Evals甚至有社区实现,通过MCP接口调用模型评测工具等等,不胜枚举。
微软也不甘落后,在4月一口气推出了两个Azure MCP服务器预览版:一是覆盖CosmosDB、存储、监控等多种Azure服务的通用Azure MCP Server,二是专注数据库操作的Azure PostgreSQL MCP Server,统一标准接口让云上操作“一键即调”。
可以说,MCP Server生态数量上的急速发展——这正是开源社区的力量,千千万万的开发者让工具能力从零散孤岛汇聚成高度可复用的标准件,让AI Agent变成了名副其实的“千手观音”。
当然,数量上增长并不意味着质量上提升,相反社区里充斥着大量低质量的,未经测试,具有安全隐患,甚至是连运行都无法正常运行,只为占坑的MCP Server。据估算,这1w多个mcp server真正可堪使用的,也就1k左右。
为了方便MCP Server的管理和发现,如今还涌现出Server聚合平台的身影:Smithery、MCP.so 等第三方平台提供了MCP Server的发布、检索和托管服务。
开发者可以把自己编写的Server上传到这些平台,方便他人一键接入;使用者也能浏览分类目录,挑选所需能力的Server。这标志着“MCP应用商店”雏形已现,工具的分享和复用进入规模化阶段。
值得一提的是,不少平台还提供了流量控制、计费支持等功能,催生出“Tool-as-a-Service”的新商业模式——工具提供方可以按调用次数计费,开发者按需购买能力,这为MCP生态注入了商业的可能性。
MCP的横空出世,也让各大AI Agent框架迅速行动,生怕踏空这班快车。先看海外开源界:LangChain 团队在3月就发布了对MCP的适配库langchain-mcp-adapters,其新一代框架LangGraph支持 Agent 通过该库调用任意MCP服务器上的工具。
这意味着,使用LangChain构建的智能体可以不经过繁琐开发,直接接入MCP生态中丰富的工具资源。正如LangChain创始人 Harrison 所言:
“MCP 让非开发者也能给现成Agent增添新工具”,它降低了集成门槛。
微软开源的多智能体框架 AutoGen 同样紧跟步伐,提供了MCP适配器,使AutoGen Agent可以将MCP Server封装为可用工具。开发者只需简单配置,AutoGen就能通过标准输入输出或HTTP与MCP Server对话,将之纳入Agent能力池。
国内的Agent框架也不示弱。BiSheng、通义的Qwen-Agent等本土框架纷纷宣称兼容MCP协议,在新版本中加入了调用MCP工具的模块。
开源Agent应用平台 Dify 则提供了“双向打通”的方案:
这相当于让每个Agent框架都成为了MCP生态的参与者:要么输出自己特有能力作为Server,要么输入别人的能力丰富自身。
随着越来越多框架适配MCP,过去各Agent系统之间壁垒分明的局面开始被打破——开发者可以混搭不同来源的工具,Agent的能力边界由此极大拓展。这种框架间的竞合共生,使MCP真正成为跨系统的通用桥梁:无论你用的是哪种Agent架构,都有机会驶入同一个“工具高速公路”。
当然,拥抱新标准的过程中也有不同声音。一些Agent框架作者曾质疑MCP的实用性:LangGraph负责人Nuno坦言,
目前模型对未知工具的调用成功率不到50%,就算把成百上千的MCP工具塞给Agent,很多时候它也“不知道如何正确使用”。
他戏称MCP现状“令人失望”——需要在终端本地跑大量服务器,远未达到一键安装的易用体验。
然而支持者们认为,这些都是新生事物的暂时阵痛:“模型会变得更聪明,MCP工具描述会更完善,调用成功率自然会上升”。实际情况是,框架开发者们一边质疑,一边还是积极把MCP纳入了自家工具链。毕竟标准的诱惑在于生态:谁都不想被挡在可能的未来事实标准之外。
短期看,MCP的易用性和可靠性还有待提升,但长期看,各框架齐头并进支持MCP已成趋势——雨后春笋般的适配插件就是最好的佐证。
MCP作为开放标准迅速普及,大模型厂商们自然不会袖手旁观,OpenAI 的态度尤其关键。
2025年3月26日,OpenAI宣布对其全新的Agent开发套件(Agents SDK)进行重大更新,正式支持MCP协议。这一举动被业内视为MCP生态的里程碑事件:借助OpenAI在开发者中的影响力,MCP俨然被抬升到了类似HTTP这种底层基础设施的地位。
OpenAI的Agent SDK开源之后,开发者可以直接将MCP Server注册为工具,让ChatGPT等模型无缝使用它们。不仅如此,OpenAI还在官方文档中提供了使用MCP进行函数调用的示例,加速了社区对这一协议的认知和接受。可以说,OpenAI这一枪响,MCP已赢在了起跑线上。
微软同样迅速响应。早在2025年3月,微软就将MCP集成进了自家的Azure AI Agent Service,并与Anthropic合作开发了官方C# SDK。4月中旬,微软进一步发布了Azure MCP服务器预览版(前文提及),突出展示了自家云服务与MCP的结合能力。
同时,微软在Copilot Studio(其企业AI助手开发平台)中新增了“MCP连接器”功能:用户可以创建自定义MCP连接器,将任意MCP Server的OpenAPI规范导入Copilot,让企业内部Agent立即具备新工具能力。
这意味着微软以一种无代码配置的方式,把MCP融入了其商业产品线,让客户在Power Platform上也能利用MCP生态。甚至连Windows系统也开始原生支持MCP,有消息称最新的Windows更新引入了MCP服务的运行时隔离和权限控制机制,方便桌面应用直接调用MCP工具。微软这一系列操作,体现出对AI互操作性的重视:他们希望Azure和Windows成为承载MCP的最佳平台。
Google 则采取了不同策略。一方面,CEO在X上公开征集要不要支持MCP,很快就在官方API文档上增加了支持MCP的描述。 但同时,谷歌在2025年4月9日高调推出了自家的A2A协议(Agent-to-Agent Protocol),旨在解决AI智能体之间通信协作的问题。
谷歌对外宣称A2A与MCP是互补关系,但业内看法是两者实则分别抢占“多Agent协同”和“Agent调用工具”两个领域的标准主导权。实际上,MCP与A2A完全都可以向对方的阵地渗透。
详细情况可以参考之前的一篇文章:刚官宣支持MCP,就发布自家Agent协议(A2A),扒一扒Google暗藏的小心思
在这场标准之争中,谷歌选择了曲线竞争:一边投资Anthropic暗助MCP,一边发展A2A谋求多Agent话语权,可谓深谋远虑。
国内AI大厂对MCP的态度更为积极和务实。2025年4月被称为国内科技巨头的“MCP行动月”:
总的来看,国内厂商更倾向于将自有优势服务迅速MCP化,一方面抢占标准落地先机,另一方面拓展自家AI能力的使用场景。
虽然目前头部大模型(如通义千问、文心一言)本身还未直接接入MCP,但它们通过各自生态的工具接入,已经变相参与了MCP浪潮。可以预见,未来是否有更多大模型平台和重量级工具提供者加入,将直接影响MCP能否从技术标准走向生态主导。
一个新协议要大规模应用,离不开底层基础设施的支持。过去半年里,全球主要云服务商纷纷在自家平台上为MCP提供了“一条龙”支持。
AWS走在前列——2025年初,AWS宣布其开发者利器Amazon Q(面向开发者的AI助理平台)全面集成MCP。开发者只需在AWS Q的CLI中简单配置,即可访问任意MCP Server;很快,这一能力也拓展到AWS Q的IDE插件中。
AWS产品负责人在采访中表示,引入MCP旨在消除各类企业系统接入AI时的定制瓶颈:过去每接一个内部数据源都要手写代码封装,而有了MCP,只需启动对应Server就能用自然语言直接查询,大幅降低开发和维护成本。
AWS还开源了一批“MCP Server样例”,涵盖Cost Explorer、CloudWatch等常用云服务,让AI助手能通过MCP对云资源进行查询和操作。可以说,AWS不仅吃透了MCP,也在积极打造自己的MCP工具套件,为企业用户提供现成方案。
云端托管是另一个关键环节。很多开发者吐槽MCP Server需要本地运行,体验欠佳。对此,Cloudflare等云厂商看到了机会:
正如AWS博客展望的那样:“随着时间推移,MCP将促进工具和Agent在市场中的可发现性,共享上下文和协同工作空间,推动行业范围的互操作性规模化”。
换句话说,云基建的加持让MCP真正具备了“工业部署”的素质:它不再只是开发者本地的小实验,而是可以承载在云端随叫随用的可靠服务。
与此同时,各种Server开发辅助工具也涌现出来,加速了MCP生态的扩张。Mintlify、Stainless、Speakeasy等推出了MCP Server代码生成器或SDK,开发者描述一下API或数据结构,就能自动生成对应的MCP Server框架代码。
例如Speakeasy提供了从OpenAPI规范快速生成MCP Server的工具,使已有的REST API秒变MCP接口。这些工具降低了门槛,让“人人皆可做工具提供者”成为现实。
随着开箱即用的开发、部署和管理环境逐步成熟,MCP生态正从黑客圈子走向企业IT部门:任何公司都可以轻松将自家数据/服务封装为MCP Server,供内部AI或合作伙伴AI访问——AI能力正以前所未有的方式被标准化地封装和分享。
MCP带来的变革很大程度上要通过具体Agent应用体现出来。在这半年,我们看到了越来越多支持MCP的AI应用涌现,从开发者工具到日常办公,各类场景遍地开花。
最初,MCP只是在Anthropic自家的Claude Desktop上作为内测功能亮相,用于帮助这款本地AI助手连接文件系统、浏览器等少数工具。而现在,几乎所有新出现的智能体应用都把“MCP兼容”当作标配卖点:
在编程领域,前有 Cursor、Windsurf、Cody 等AI编程助手,如今都加入了通过MCP调用开发工具的功能。
开发者可以对IDE里的AI说“帮我在数据库里查下记录”或“把设计稿导出PDF”,AI会通过MCP触发对应工具,如读取PostgreSQL或调用Figma接口来完成任务。
这些IDE代理不再受限于代码本身,而是可以掌控整个开发环境。Visual Studio Code 甚至在1.101版本中原生集成了MCP支持,允许开发者将任意MCP Server注册进VS Code的AI助手,使之能够使用通过安全认证的工具。AI编辑器由此迈向真正的多能助手,开发者体验显著提升。
在办公助理方面,各大OA厂商的AI助手纷纷拥抱MCP。
这些应用场景的共同点是:AI不再是孤立的问答机器人,而真正变成了一个能执行操作的数字员工,通过MCP访问各类系统完成闭环任务。
在个人和生活类应用上,MCP同样施展拳脚。比如一个AI日程管家应用,通过MCP连上Google Calendar、地图和天气工具,当用户说“下周找个天气好的下午出去跑步并约朋友晚餐”时,AI可以自动查询天气预报、搜索附近跑步路线和餐厅,然后帮用户在日历上预订时间。
又如家居助理AI,通过MCP连接IoT设备,实现用自然语言控制智能家电甚至查询电费余额等,将智能家居的体验提升到新高度。可以说,MCP让各种垂直领域的Agent应用有了标准接口去调动外部资源,激发了无限创意。
MCP浪潮不仅影响应用层,也开始“反哺”底层的大模型研发。为了让AI更好地适应MCP协作环境,各大模型研发团队近半年也进行了针对性的训练和微调尝试。
开源社区同样行动迅速:
虽然这类模型还远不如GPT-4之类强大,但它验证了一个方向:通过精调,小模型也能掌握MCP协议下的工具调用技能,在特定场景下完成复杂任务。
更有甚者,一些科研团队在探索“多模态MCP”的基座模型训练——让模型同时接受文本、图像乃至数据库schema等多种上下文,然后通过MCP调用不同模态的工具完成跨领域任务。这种训练需要模型具备理解不同内容的能力,对应地MCP协议也在规划支持视频等更多数据类型。
一旦成功,我们也许会看到AI不仅能看图识字,还能根据图像内容自动选择合适的工具(如识别出照片中的文字然后调用OCR MCP Server)。
可以想见,未来的大模型将天然具备“MCP DNA”,出生时就懂得如何通过标准协议驾驭各种工具。那将是AI能力的一次跃升,使每个模型都成为名副其实的“多才多艺”的智能体。
https://github.com/modelscope/MCPBench
Agent性能评测和对标因为MCP而成为可能。以前,每个Agent系统各自为战,难有统一评测标准;但有了MCP,研究者可以制定统一的任务集,通过不同Agent调用同样的一组MCP工具来比较效果。
2025年4月,魔搭开源了MCPBench评测框架,用于评估不同MCP Server在相同LLM下的任务完成准确率、延迟和token消耗。
他们发布的报告(https://ar5iv.labs.arxiv.org/html/2504.11094)显示,不同实现的MCP Server在效能上差异显著,有些工具调用的准确率还不如直接让模型用内置函数。例如对比多个Web搜索类MCP Server时,Brave Search的返回正确率高于DuckDuckGo等,但整体来看,通过MCP搜索网络问答的准确率仍稍逊于模型直接调用训练中内置知识。
这些结果一度引发了对MCP价值的争论。然而另一套更全面的基准MCP-Radar(https://arxiv.org/pdf/2505.16700)和清华发布的MCPWorld测试则指出:MCP Agent在复杂任务上的成功率目前偏低,但通过优化提示和参数尚有提升空间。
社区也开始有组织地迭代工具描述和提示策略,来提高AI对MCP工具的理解和使用效果。评测推动了改进,这正是标准化带来的另一好处:当大家都使用相同接口,就更容易发现共性问题并驱动协作优化。
如今,不少开源Agent项目在发布新版本时都会报告其在MCPBench或其他评测集上的分数,以此证明自家Agent更智能或更善用工具。MCP让Agent能力第一次有了相对客观的标尺,这无疑会加速Agent技术的演进和成熟。
梳理完以上看得见的改变,更深层的影响也在悄然发生。MCP之于AI生态,不仅是一套新工具,更是一剂催化剂,推动着AI能力从作坊式走向工业化,从个体走向规模经济。用四个词来概括,就是:工业化、物流化、货品化、商品化。
回顾以往,AI应用集成工具常常是手工打造,每接入一个新数据源都要写定制代码,耗时耗力。而MCP提供了标准件来取代手工作坊:开发者只需按统一规范开发或调用,Agent即可使用各种工具。
正如AWS的Adnan所说,目标是“减少原本需要的那些定制连接器”。
MCP把繁杂的工具接口像工业零件一样标准化生产,让AI系统的构建更像装配流水线——模块化组合而非每次从头定制。标准件的出现使AI应用开发效率和质量得到质的飞跃,这正是AI走向工业化生产的基础。
有了标准接口,AI能力的流通也发生了革命性变化。
以前,一个工具能力往往局限在开发它的那套系统内,难以转移;MCP则赋予工具跨环境流动的能力,让AI工具可以像货物一样在不同平台、不同Agent之间输送。
第三方MCP Server聚合平台和Registry的兴起,相当于建立了物流枢纽和仓储:工具提供者将“货物”发布到中心仓库,使用者通过目录快速查找,从最近的节点调度获取。
这种物流化让AI能力在全局范围自由流通,极大提高了AI生态资源的利用率。未来,我们或许会看到AI Agent自动在市集中发现并下载所需工具,就像人类上网采购所需商品一样。
MCP还让AI工具第一次成为了开箱即用的成品。
过去,要在某个AI助手中加入新功能,往往需要开发者针对该助手做二次开发,改Prompt、调代码,相当于“散装零件”需重新组装。
而现在,一个成熟的MCP Server就像标准商品一样,具备统一包装和接口说明,多数Agent拿来即插即用,不需要额外改造。
例如GitHub官方的MCP Server,一经发布,各种支持MCP的Agent无需了解其内部实现,只根据描述就能调用GitHub功能。工具成为了即插即用的产品,这将鼓励更多个人和厂商投入生产优质“AI商品”。就像软件从源码发布到打包发行是一次飞跃,AI工具的货品化大大降低了使用门槛,推动生态繁荣。
当工具成为标准货品,也就具备了定价和交易的可能。
MCP生态中已经出现按量计费、授权访问等机制:Mintlify等平台允许开发者为其托管的MCP Server设置访问权限和付费墙;一些提供独家数据/能力的Server开始探索订阅制或调用计价的模式。
这意味着AI工具被赋予了经济价值标签,可以像商品一样进入市场流通。正如有分析指出,MCP服务器商店正在变成新一代的应用商店和插件市场。未来,不排除出现类似“AI工具超市”的服务,用户为所需能力付费购买使用权。这实际上为AI能力建立了市场交易体系,AI的价值不再只体现在模型和算力上,也体现在具体可交易的功能服务上。
MCP的核心意义不在于发明了哪个新奇工具,而在于首创性地赋予了AI工具“规模化生产、跨平台流通、按需即取、按量计价”的经济属性。正是这些隐性的变革,把AI从孤岛应用推上了产业化分工的高速路:工具开发者、服务提供者、模型平台和应用开发者各司其职,通过标准协议紧密协作。AI能力正像商品和工业制品一样,被大规模制造、运输、交易,其影响将深远地嵌入各行各业的价值链。
当晨光透过云桥洒下,我们看到的远不止是一项新技术的诞生。MCP带来的,实则是一场范式转变:AI第一次拥有了像人类社会那样的协作与分工机制。
过去半年,这座桥连接起模型与工具、开发者与生态,激发了前所未有的创新活力。
从表层的协议升级、生态繁荣,到深层的工业化洗礼,MCP正悄然重塑AI产业的基石。
或许当前的MCP生态仍有瑕疵,工具调用不够聪明,安全体系有待强化。但正如黎明前的云雾,它们终将散去。
在持续迭代和广泛参与下,MCP有望成为Agent时代名副其实的“事实标准”,让AI像互联网一样融入各个角落。
对于开发者和从业者而言,我们正站在桥头,面朝浩瀚新大陆:下一步,唯有阔步前行,把握这场技术平权的机遇,让AI的工具之桥通向更多真实世界的价值。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-29
2025-03-21
2025-04-11
2025-03-20
2025-03-21
2025-04-01
2025-04-12
2025-03-22
2025-04-29
2025-03-20