微信扫码
添加专属顾问
我要投稿
Agent持续学习的落地路径:从Traces到Context再到模型微调,LangChain创始人Harrison Chase的三层框架为你指明方向。核心内容: 1. Agent持续学习的三层框架解析(Model/Harness/Context) 2. 每层学习方式的适用场景与落地成本对比 3. 面向产品团队的渐进式实施路径建议
标题:Agent 持续学习不只是训练模型:解读 Harrison Chase 的三层框架
摘要:Agent 持续学习落地路径:先做 Traces,再做 Context,最后才微调模型
本文来自投稿。
作者:Daniel,DeerFlow 联合作者。DeerFlow 是基于 LangGraph 的开源 SuperAgent 框架,专注多智能体编排,GitHub 60K+ Stars。长期深耕智能体工作流设计与有状态图执行,致力于将自主 Agent 真正推向生产环境的能力边界。
Agent 系统到底该怎么"持续变强"?
它依赖训练数据、训练基础设施和评测闭环,更像平台级能力,而不是普通产品团队可以频繁迭代的日常手段。
近期, LangChain 创始人 Harrison Chase 发布了一条 X 帖子出发,将 Agent 持续学习系统拆解为三层:Model(模型权重)、Harness(执行机制)、Context(可配置记忆),并结合 Meta-Harness、LangChain Deep Agents 等前沿工作,逐层分析每一层的学习方式、落地成本与适用场景。
基于这个分析,一套面向产品团队的可能行动路径是:先把 Traces 做对,再做 Context learning,然后建立 Harness optimization loop,最后才考虑模型微调。
锦秋基金认为,这对正在考虑把"持续学习"纳入 Agent 产品路线图的读者很有帮助,因此也做了转载。
2026 年 4 月 5 日(北京时间),LangChain 创始人 Harrison Chase 发布了一条 X 帖子:
这篇内容的核心观点很明确:
对 AI agent 而言,“持续学习”不应只被理解为更新模型权重。一个 agent 系统实际上可以在三个层面持续进化:Model、Harness、Context。
Harrison 把 agentic system 拆成三层:
这一定义的价值在于,它把“学习”从单一的模型训练问题,扩展成了一个完整系统工程问题。
这一层对应大家最熟悉的持续学习:
但这里有一个老问题没有消失:catastrophic forgetting。也就是模型在学习新东西之后,旧能力反而退化。
我的判断是:
所以 Harrison 虽然承认模型层很重要,但他的真正重点并不在这里。
Harness 指的不是模型,而是“模型怎么被使用”:
Harrison 在文中点名了 https://yoonholee.com/meta-harness/ 这篇工作。它的思路可以概括为:
这很重要,因为它说明:
Meta-Harness 官方页面给出的结果也很强:它强调自己的关键差异是让优化器看到完整历史代码、分数与执行 trace,而不是只看摘要。作者称这种“文件系统级上下文”能把每轮优化可用诊断信息提升到远高于传统做法的量级。
Harrison 把 Context 定义为位于 harness 之外、用来配置 agent 的内容,例如:
这层的关键不在“模型学到了什么”,而在“系统记住了什么,并在之后的会话中如何继续使用它”。
LangChain Deep Agents 的官方文档把这件事讲得非常具体。它支持:
这说明 Context 层并不是“多塞一点提示词”那么简单,而是一套可持久化、可分层、可读写、可检索的记忆系统。
Harrison 在文章里用了两个 mapping:
这个拆法非常实用,因为它直接说明:
我额外核对了 OpenClaw 的公开文档:
这恰好印证 Harrison 的观点:很多 agent 系统的“持续学习”,本质上发生在可配置上下文层,而不是模型微调层。
如果把这篇文章提炼成一句话,我会写成:
Agent 的持续学习,正在从“训练模型”转向“优化完整系统”。
这里至少有三个变化:
传统 LLM 持续学习更关注:
而 agent 持续学习更关注:
同一个 agent 系统里,不同层的学习频率与代价完全不同:
这意味着持续学习不该只有一个总开关,而应该是三套不同机制。
Harrison 在文末反复强调 traces。这是全文最关键的基础设施判断之一。
原因很直接:
换句话说,没有高质量 traces,就没有高质量 agent learning loop。
我认为三层里最先大规模落地的是 Context 层,而不是 Model 层。
原因:
很多今天被包装成“agent 会记忆了”的能力,本质上都属于这一层。
如果 2024 年大家主要比拼“谁先把 agent 跑起来”,那么 2026 年更像是在比:
这也是为什么 Meta-Harness 这种工作值得重视。它代表一种很工程化的方向:让 agent 帮你改 agent。
如果一个团队准备把“持续学习”纳入 agent roadmap,我建议按下面顺序推进:
遇到“agent 该怎么学”这个问题时,可以先问四个问题:
如果这四个问题答不清楚,所谓“持续学习”大概率只是一个模糊口号。
Harrison Chase 这条帖子和配套文章的价值,不在于提出某个全新算法,而在于把 agent 持续学习重新拆解为一个更实用的三层框架:
其中最值得产品团队立即行动的,不是训练模型,而是两件事:
这也是我对这篇文章最核心的结论:未来更强的 agent,不一定先来自更大的模型,而更可能先来自更会“复盘、记忆、重构”的系统。
-END-
近期,我们也正在进行一个品牌相关的调研。
如您是创始人、CEO 、公司高管、投资人、媒体记者、KOL、求职者,我们也希望邀请您继续参与锦秋基金的调研。
参与调研者将有机会活动锦秋基金调研的数据。
面向创始人、公司CEO、高管的调研:
面向投资人的调研:
面向求职者的调研:
面向媒体记者、KOL的调研:
锦秋基金
每一个技术周期,都会有重新定义时代的创业者。
锦秋基金在不确定中长期支持想要改变世界的创业者,一起创造独一无二的伟大公司。
锦秋基金成立于2022年,专注早期,投资那些推动产业跃迁、拓展人类能力边界的创业公司。
锦秋基金目前已披露参与投资:
宇树科技、Momenta、数美万物、地瓜机器人、乐享科技、生数科技、首形科技、OiiOii、造梦次元、星尘智能、Pokee AI、铭芯启睿、因克斯、独响、Aha AI、清闲智能、微纳核芯、深度原理、光本位、澜昆微、流形空间、灵启万物、灵动佳芯、PongBot庞伯特、Pathfinder巡领科技、诺视科技、未来机器人、FastMoss、Dexmate、atoms.dev、Workmagic、Agile Flight、Talkme、Wanaka、Artarch、Infernet、SandwichLab、Wanderboat、Rezona、幕间、Isoform、Testsprite、Ribbi、NemoVideo、TarsTech、银河驿站、浪漫极客、Echo、Hydrox、SophiaPro、AdsGency、Go Plus Security、Safeheron、Poppark、Imaginix、Capso、fluxvita、猴子说话、奇妙拉比、JetCommerce、文图跃迁、新控智能、昌进生物、疆海科技、大秦数能、Leonis Capital、ZuzuZoos等。
「AI First Bite」
「2026 Founder Compass」
Choose Your Own Adventure|加入锦秋
简历投递
Agent 时代的招聘与投资入口:Agent Channel
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-23
养死四只龙虾的小白有感
2026-03-22
Mistral Forge 的真正意义:企业AI从“租用”走向“拥有”
2026-03-21
马斯克再次站台Kimi,扒掉了Cursor 500亿估值的底裤
2026-03-19
MiniMax M2.7 炸场!自己训自己,8 项基准硬刚 GPT-5 和 Opus 4.6
2026-03-17
【淘宝直播数字人互动LLM】告别AI感:基于真人ASR数据的拟人化探索
2026-03-03
罕见!Meta、OpenAI、xAI联合分享了用生产环境提升LLM的最佳实践!
2026-02-13
工具调用准确率从60%飙到95%?我用这个‘解耦微调’把Qwen-7B救活了
2026-02-05
普林斯顿大学RLAnything:AI学会一边学习一边给自己打分
2026-01-18
2026-03-19
2026-02-04
2026-01-19
2026-01-30
2026-01-29
2026-03-21
2026-01-29
2026-02-05
2026-03-03
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17
2025-05-14