微信扫码
添加专属顾问
我要投稿
Agent框架看似技术门槛低,实则暗藏五层隐性竞争壁垒,从代码复制到生态网络效应层层递进。核心内容: 1. Agent框架表面技术壁垒薄弱的三大原因 2. 五层隐性竞争壁垒的深度解析 3. 模型厂商内建能力对中间层的挤压效应
Agent 框架(harness/编排层)本身几乎没有技术壁垒——代码可复制、模式公开、模型可替换。但"把 Agent 做好"存在五个层次的隐性壁垒:Eval 数据飞轮、Tool 集成深度、领域 Workflow 编码、可靠性工程积累、生态网络效应。更关键的是,随着模型厂商(OpenAI、Anthropic、Google)纷纷内建 Agent 能力,中间框架层正面临"上下夹击"的结构性压力。真正的壁垒不在框架代码里,而在于对失败模式的深度理解和用户场景的复合积累。
这个直觉来自三个显而易见的事实:
a16z 在其经典分析 Who Owns the Generative AI Platform 中直言:
"There don't appear, today, to be any systemic moats in generative AI."(当前在生成式 AI 中,似乎不存在任何系统性护城河。)
应用层公司"rely on similar underlying AI models"(依赖相似的底层模型),导致差异化薄弱、毛利被压缩(低至 50-60%)、缺乏明显的网络效应。
Sequoia 在 AI's $600B Question 中给出了一个看似矛盾、实则深刻的判断:
这意味着:框架层虽然不是壁垒的来源,但它可以是积累壁垒的工具。
我将壁垒从弱到强分为五个层次:
来自 Latent Space 的关键洞察:OpenHands(原 OpenDevin)仅使用 5-6 个工具(bash、Jupyter、文件编辑、搜索替换、浏览器),就能在 SWE-Bench 上达到顶级表现。这说明工具数量和框架复杂度并不是竞争力的来源。
Graham Neubig(OpenHands 核心作者)甚至明确反对多 Agent 复杂性:
"Multi-agent systems get stuck when things deviate from your plan."(多 Agent 系统在计划偏离时容易卡住。)
他认为,框架复杂度与鲁棒性负相关——一个好的单 Agent + 好的模型,往往胜过复杂的多 Agent 编排。
精心调优的 system prompt、few-shot examples、角色设定确实能带来显著的短期质量差异。但这个壁垒在快速贬值:
但有一个例外:系统化的 prompt 管理体系(版本控制、A/B 测试、回归测试、与 Eval 联动的自动优化)本身构成一定壁垒——不是因为 prompt 内容不可复制,而是因为持续迭代的流程不可复制。
这是 Cursor、Devin 等公司实际赖以立足的层次。
Cursor 案例分析:
.cursorrules |
|
Cursor 的壁垒不是"用了 Claude"或"用了 GPT-4",而是对开发者工作流的深度理解 + 大量 edge case 的处理。这些是"脏活累活",但恰恰是别人难以快速复制的。
Harvey AI(法律)案例分析:
类似地,Harvey 的壁垒不在于调用了什么模型,而在于:
通用规律:在特定领域,知道"先做什么后做什么"比"怎么调用 LLM"重要得多。
这是被严重低估的壁垒来源。
能搭一个 multi-agent 系统不难,知道它什么时候好、什么时候坏才是壁垒:
来自 Latent Space 的数据佐证:OpenHands 的 Agent Workflow Memory 论文显示,"agents learning from past successes" 带来了 22.5% 的准确率提升。这种经验累积形成的知识库就是飞轮。
Demo 能跑 ≠ 生产能用。中间的鸿沟是:
| Error Recovery | |
| Cost Control | |
| Latency Optimization | |
| Observability | |
| Guardrails |
这些是工程经验的积累,每个坑都要踩过才知道。Graham Neubig 提到 Claude 的优势就在于 error recovery——"它会说'嗯,让我试试另一种方法'",而 GPT-4o "没有很好的 error recovery 能力,会卡在重复相同的动作上"。这种洞察不是读论文能获得的。
如果能走到这一步,壁垒是真实且持久的。但很少有 Agent 框架真正建立起来。
MCP(Model Context Protocol)案例:
Anthropic 推出的 MCP 试图成为"Agent 世界的 USB 协议"——标准化 Agent 与工具的连接方式。它的潜在网络效应是:
但 Graham Neubig 对此持怀疑态度:
"We already have an API for GitHub, so why do we need an MCP for GitHub?"(我们已经有 GitHub API 了,为什么还需要 GitHub 的 MCP?)
同时,Google 在 2025 年推出了竞争性的 A2A(Agent-to-Agent)协议,定位为"agent 之间的通信标准"。两个标准之争本身说明了一个事实:标准之战还远未结束,早期的网络效应可能被后来的竞争者打破。
真正的数据飞轮需要:
目前大多数 Agent 框架还停留在"开源 + 社区 + Star 数"的阶段,没有真正建立数据飞轮。
模型厂商正在系统性地"侵蚀"框架层的价值空间:
| OpenAI | |
| Anthropic | |
Neubig 预测:"Every large LM trainer will be focusing on training models as agents"(每个大模型训练者都会专注于把模型训练成 Agent)。
这意味着:当模型本身就是好 Agent 时,编排框架的价值大幅缩水。
越来越多的开发者选择"绕过框架,直接调 API":
LangChain 被大量批评为"thin wrapper"——给简单的 API 调用包了过多抽象层,增加了调试难度,频繁的 breaking changes 让生产环境用户苦不堪言。
替代方案包括:
面对上下夹击,框架层公司有几条可能的出路:
Web 框架层同样是"没有技术壁垒"的——任何人都能写一个 HTTP 框架。但最终的赢家通过以下方式建立了持久的影响力:
教训:框架本身不是壁垒,围绕框架的生态才是。
早期人们也认为云计算"没壁垒"——都是虚拟机、存储、网络。但 AWS 通过以下方式建立了持久优势:
教训:规模 + 服务捆绑 + 迁移成本 可以在看似无壁垒的技术层构建强大护城河。
推荐算法的论文都是公开的,但字节跳动的壁垒在于:
教训:飞轮的转速和规模,远比算法本身重要。
Agent 框架/Harness 本身确实没有独特壁垒。
但这不意味着 Agent 领域没有机会——恰恰相反。真正的壁垒藏在"冰山水下"的部分:
借用一个类比:壁垒不在"造锤子",在"知道往哪里钉钉子、钉多深、钉歪了怎么修"。 而这些"知道",需要时间、需要真实用户、需要持续迭代来积累。它们不写在任何一行代码里,但它们是真实的竞争优势。
我是 Frank Yan,近 10 年 互联网+AI 从业者,也在努力成为新时代的探索者。我在这里会聊 AI 行业的真实变化,记录和分享认知。如果你也在认真思考 AI 时代如何创业、如何做产品、怎么找位置,关注这里,我们一起前行。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-19
Google 再放大招 对着画布说话就能做设计 Figma 股价爆跌8.8%
2026-03-19
咨询 | OpenAI、Anthropic纷纷和咨询公司合作的背后,折射除了行业落地AI什么样的趋势?
2026-03-19
大伙都在养虾,MiniMax 带着新模型来偷偷上分了?
2026-03-19
刚刚,被全网猜是DeepSeek V4的神秘大模型,被小米认领了!还能免费“养龙虾”
2026-03-18
试用 Claude 版本的小龙虾方案:Dispatch
2026-03-18
OpenAI 官方分享:Harness工程
2026-03-18
Harness Engineering 为什么是 Agent 时代的“控制论”?
2026-03-18
从零构建 Claude Code:揭秘 AI Coding Agent 的 12 层架构演进
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-21
2026-01-09
2026-01-09
2025-12-30
2026-01-23
2026-01-21
2026-03-19
2026-03-19
2026-03-19
2026-03-18
2026-03-17
2026-03-17
2026-03-09
2026-03-08