免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

涌现观点|从 RAG 到文件系统:Agent 记忆的“逆向进化”

发布日期:2025-11-24 19:41:11 浏览次数: 1522
作者:涌现聚点

微信搜一搜,关注“涌现聚点”

推荐语

Agent 记忆管理迎来革命性突破:从填鸭式RAG到自主文件系统,解决上下文迷雾的终极方案。

核心内容:
1. 传统RAG范式面临的"上下文迷雾"困境与成本危机
2. 文件系统作为Agent记忆管理的新范式突破
3. 前沿案例展示自主文件系统访问带来的效率跃升

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

unsetunset困在“上下文迷雾”中的巨兽unsetunset

上周五下午,我盯着屏幕上的一个数据,愣了足足十秒。

一份 EMNLP 的报告给了我当头一棒:即使你的检索准确率是 100%,一旦上下文超过 30,000 个 Token,推理准确率就会出现断崖式下跌,跌幅最高可达 85%

我感觉像被谁打了一拳。

我们一直以为,给 Agent 喂越多的数据,它就越聪明。但这就像给一个正在做微积分的学生,塞了一整座图书馆的书,然后指望他能考满分。结果?他彻底疯了。

这就是 “上下文迷雾”(The Context Fog) 。

"Context Stuffing is the new memory leak."

—— Hacker News 上的热评[1]

看看这个典型的翻车现场: 用户只问了一句“怎么退款”,你的 RAG 系统却一口气抓回了 10,000 Token 的网页原码。五年前的过时条款、无关的促销广告,甚至连页脚的版权声明都一股脑塞给了模型。结果?Agent 在这堆垃圾里彻底迷路,开始一本正经地胡说八道。

更糟糕的是账单。根据最新的成本测算[2],这种粗暴的“Context Stuffing”(填鸭式填充)模式,成本是精细化“Context Engineering”的 10 倍

方案
策略
成本 (1M Token)
准确率 (长程任务)
Context Stuffing
暴力填充
$2.50+
< 60%
Context Engineering
按需检索
$0.25 > 80%
结论 不可持续 必须转型

▲ 表1. 成本与准确率对比:Context Engineering 在长程任务中展现出压倒性优势(数据来源:Sundeep Teki)

你的 Token 计费表正在疯狂跳动,每一秒的犹豫,都在燃烧你的预算。

RAG 范式撞墙了。

全速冲刺后的一声巨响。Token 爆炸、记忆丢失、推理失效……这些问题像四面围墙,把我们困死在原地。我们需要一把锤子,或者一条地道。


unsetunset给 Agent 装一个“外挂大脑”unsetunset

解药竟然是我们最熟悉的陌生人:文件系统

LangChain 的 Nick Huang 最近提出了一个振聋发聩的观点[3]文件系统不应该只是存储,它应该是 Agent 与世界交互的单一接口(Single Interface)。

别再给 Agent 喂饭了。给它文件系统权限,让它长出自己的“外挂大脑”。从今天起,让它自己去书架上找书看。

看看现在的先行者们。Claude Code[4] 和 Manus[5] 已经不再依赖单纯的向量检索。它们像一个老练的 Linux 运维,熟练地使用 ls 查看目录结构,用 grep 精准定位关键词,最后只用 read 读取那几十行真正有用的代码。

看着 Agent 在目录里进进出出,像个真正的图书管理员一样整理资料。它不再傻乎乎地等着你投喂,它开始自己做笔记,甚至自己清理垃圾。那种“它活了”的感觉,前所未有。

“Agent 不再是一个被动的阅读者,而是一个主动的图书管理员。”

这就是范式的逆转:从无状态的查询(Stateless Query),转向有状态的文件操作(Stateful File Operation)。

▲ 图1. 范式逆转:文件系统如何让 Agent 拥有“持久化记忆”与“精准检索”能力


unsetunset10,000 Token 的“失忆症”与进化的代价unsetunset

但所有进化都有代价。这次的账单,可能比你想象的要贵。

当我第一次给 Agent 赋予文件读写权限时,那种兴奋感很快被一种恐惧取代。Trail of Bits 的研究员演示了一个名为 “Prompt Injection to RCE”[6] 的攻击。

黑客只需要在一个网页里隐藏一段恶意指令,当你的 Agent 读取这个网页时,它就会被诱导去修改系统的配置文件,甚至把你的 SSH 密钥发给黑客。这就像把钥匙给了保姆,结果保姆是小偷。

除了安全,还有性能。虽然文件系统检索更精准,但它慢。根据实测,一套完整的 ls -> grep -> read 流程,平均耗时 5 秒。而传统的向量检索只需要 0.8 秒。这种延迟在实时交互中是致命的。

那种慢,就像你看着进度条在 99% 卡住了一样让人抓狂。

但我们别无选择。因为“无状态”架构有一个更可怕的缺陷:失忆症

无论用户纠正了 Agent 多少次,只要它的 System Prompt 是静态的,下一次对话它依然会犯同样的错。它永远活在“第一天”,永远无法成长。这就像《初恋 50 次》里的女主角,每天醒来都把昨天忘得一干二净。


unsetunsetAgent 如何在文件系统里“翻箱倒柜”?unsetunset

拆解开来就是三板斧:

  1. 全景扫描 (ls):先看目录结构。Agent 需要知道项目长什么样,哪里是源码 (src),哪里是文档 (docs),建立第一层空间认知。
  2. 精准定位 (grep):不打开文件,直接搜内容。在几千个文件中,瞬间锁定包含特定函数或变量的那几行。这是对 Token 的极致吝啬。
  3. 深度读取 (read):只读命中的那一段。与其把整个文件塞进内存,不如只提取那几十个字节的关键信息。

看看 Morph 的测试结果,差距大得惊人。这种 “语义检索 + Grep 混合流” 方案,将复杂代码任务的完成率从 64% 提升到了 84%

在 LangChain 的 deepagents 库中,这种逻辑被封装得非常优雅:

# 伪代码示例:Agent 像使用 Google 一样使用 grep 工具
@tool
def grep_file(pattern: str, path: str) -> str:
    """
    查找文件中是否包含 pattern,返回匹配行。
    这比读取整个文件要节省 99% 的 Token。
    """

    try:
        # 模拟 grep -rn "pattern" path
        result = subprocess.check_output(["grep""-rn", pattern, path])
        return result.decode("utf-8")
    except Exception as e:
        return f"Error: {e}"

# Agent 调用示例
# agent.invoke("在 src 目录下查找所有包含 'API_KEY' 的文件")

看着这几行简单到简陋的代码,我差点笑出声。但就是这几行代码,让 Agent 学会了最重要的一件事:拒绝。拒绝阅读那 99% 的垃圾 Token。


unsetunsetDeep Agents 的黎明:会自我进化的 Promptunsetunset

把 read 变成 write,不仅仅是改了一个权限位。这相当于给了 Agent 一支笔,让它开始改写自己的命运。

Agent 在一次任务中犯了错,用户指出了错误。Agent 不仅仅是道歉,它调用了 write_file 工具,打开了自己的 system_prompt.md 文件,在“注意事项”那一栏,加了一条新的规则。

它改写了自己的基因。

这就是 Deep Agents 的雏形。它们不再是静态的工具,而是会自我进化的生命体。

在这个新世界里,“Context Engineering” 将取代 “Prompt Engineering”,成为定义 AI 能力的核心技能。我们需要关心的不再是如何写出漂亮的 Prompt,而是如何为 Agent 构建一个 “可生长”的文件环境 。

音乐已经停了,RAG 的狂欢结束了。现在,是时候给你的 Agent 装上文件系统,让它学会自己整理记忆了。

对于 Deep Agents 的未来,我个人更倾向于认为它会彻底改变我们与软件的交互方式,但我也很好奇大家的看法。你认为给 Agent 如此大的文件权限,是进化的必然,还是打开了潘多拉魔盒?欢迎在评论区聊聊。

参考资料
[1] 

Hacker News 上的热评: https://news.ycombinator.com/item?id=38679453

[2] 

最新的成本测算: https://www.sundeepteki.org/blog.html

[3] 

Nick Huang 最近提出了一个振聋发聩的观点: https://blog.langchain.com/how-agents-can-use-filesystems-for-context-engineering/

[4] 

Claude Code: https://www.anthropic.com/engineering/building-agents-with-the-claude-agent-sdk

[5] 

Manus: https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus

[6] 

“Prompt Injection to RCE”: https://blog.trailofbits.com/2025/10/22/prompt-injection-to-rce-in-ai-agents/


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询