微信扫码
添加专属顾问
我要投稿
Agent越智能反而死得越快?揭秘上下文膨胀的致命陷阱与Manus的极简解法。 核心内容: 1. Agent性能悖论:上下文膨胀导致模型质量下降 2. 五大解决方案与压缩/总结的本质区别 3. Manus的极简架构哲学:做减法比堆功能更重要
最近,Langchain 的工程师 Lance Martin 和 Manus 的创始人Peak 季逸超 进行了一次关于Agent的研讨会,信息量有点大,整理了一些结论分享一下。
一个现实:Agent越智能,死得越快。
问题出在哪?
Agent会疯狂调用工具,每次调用都会把结果塞进上下文里。
Manus提到他们一些任务需要50次工具调用,Anthropic说生产环境的Agent对话能跑几百轮。
结果就是,上下文像滚雪球一样越滚越大,最后开始出现 Context Rot,模型重复输出、推理变慢、质量下降。
这就是个悖论:Agent需要大量上下文才能工作,但上下文越多性能越差。
现在的解决方案基本就五招:
Offload、Reduce、Retrieve、Isolate、Cache。
分别对应了,文件系统、总结/压缩、语义召回、Sub-Agent、缓存。
因为大家太熟概念了,就不展开这几点了。
Peak分享了个很有意思的点:Compaction(压缩)≠ Summarization(总结)。
压缩是可逆的,比如写文件操作,完整版有path和content两个字段,压缩后只保留path,因为内容已经写进文件系统了,需要的时候再读回来。总结是不可逆的,信息会永久丢失。
所以Manus的策略是:先压缩,压不动了再总结。而且总结的时候必须用完整数据,不能用压缩版,否则信息损失会叠加。
一个趋势是,Agent 用一组较少的通用工具,这些工具使Agent能够访问计算机。
比如说,用 Bash 工具和几个访问文件系统的工具,就可以执行各种任务了。
所以Manus做了一个分层架构,外层只有不到20个原子能力。
将大多数的操作卸载到sandbox层。可以命令行调用,MCP通过CLI接入,可以写python脚本调用第三方API。
Manus最大的进步不是加功能,而是删功能。
过去七个月,每次简化架构,系统就变得更快、更稳、更聪明。
因为Context Engineering的目标不是让模型更复杂,而是让模型的工作更简单。
小心Context Over-Engineering(上下文过度工程化)。
Agent的上下文工程不是堆砌技巧,而是做减法的艺术。
Manus不做多角色Agent(什么设计师Agent、程序员Agent),因为那是人类公司的组织架构,是人类上下文能力的局限导致的。
AI为什么要模仿人类的限制?
他们只有三个Agent:通用执行Agent、规划Agent、知识管理Agent。就这么简单。
所以说,别再让Agent被自己的上下文撑死了。做减法,trust the model a little more。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-23
LangChain V1.0 深度解析:手把手带你跑通全新智能体架构
2025-10-23
LangChain 与 LangGraph 双双发布 1.0:AI 智能体框架迎来里程碑时刻!
2025-10-19
AI 不再“乱跑”:LangChain × LangGraph 打造可控多阶段智能流程
2025-10-15
LangChain对话Manus创始人:顶级AI智能体上下文工程的“满分作业”首次公开
2025-10-09
Langchain回应OpenAI:为什么我们不做拖拉拽工作流
2025-09-21
告别无效检索:我用LangExtract + Milvus升级 RAG 管道的实战复盘
2025-09-19
AI Agent 软件工程关键技术综述
2025-09-13
我为啥现在如此热衷于LangGraph智能体开发
2025-09-13
2025-09-21
2025-10-19
2025-08-19
2025-08-17
2025-07-30
2025-09-19
2025-09-12
2025-09-06
2025-08-03
2025-07-14
2025-07-13
2025-07-05
2025-06-26
2025-06-13
2025-05-21
2025-05-19
2025-05-08