微信扫码
添加专属顾问
我要投稿
Google和斯坦福的最新研究揭示:AI正在突破传统微调,学会从经验中持续进化。核心内容: 1. Google的ReasoningBank系统:让AI建立经验库,从成功和失败中双向学习 2. 斯坦福的ACE框架:通过角色分工和增量更新实现上下文智能进化 3. 两大方案在网页导航和代码修复等任务中展现显著性能提升
最近,两篇新论文正在学术圈引发热议。
Google的ReasoningBank和斯坦福的ACE(Agentic Context Engineering),看似研究不同方向,实则都在解决同一个根本问题:如何让AI系统真正学会学习。
不是训练时的学习,而是使用时的学习。不是从数据集中学习,而是从自己的经历中学习。
想象这样一个场景:你让AI助手帮你在购物网站上找到某个商品的首次购买日期。它先点击了"最近订单",只看到了最近的购买记录,错误地报告了最近一次的日期。下次遇到类似任务,它还是先点"最近订单",再次失败。
这就是目前大多数AI系统的现状。Google研究团队在论文中指出,即使是最先进的大语言模型agent,也会不断重复相同的错误,因为它们缺乏从过往经验中学习的能力。每次任务都是孤立的,宝贵的经验被丢弃,错误不断重演。
Google提出的ReasoningBank,本质上是一个AI的经验管理系统。它包含三个核心组件:
记忆提取:系统将每个执行轨迹转化为结构化的记忆项,每项包含标题(核心策略总结)、描述(一句话概述)和内容(具体的推理步骤和见解)。
双向学习:与以往只存储成功经验不同,ReasoningBank同时从失败中学习。成功的轨迹提供验证过的策略,失败的轨迹则提供反面教训和需要避免的陷阱。
智能检索:面对新任务时,系统通过嵌入向量搜索找到最相关的记忆项,将其注入到系统提示中,指导决策。
更进一步,论文提出了MaTTS(Memory-aware Test-Time Scaling)机制。通过并行生成多个轨迹或迭代优化单个轨迹,系统获得丰富的对比信号,从而合成更高质量的记忆。
实验结果令人瞩目:在WebArena网页导航任务上,配备ReasoningBank的Gemini-2.5模型成功率从40.5%提升到48.8%,平均步数从9.7减少到8.3。在SWE-Bench代码修复任务上,平均步数减少了2.8步。
斯坦福的ACE走了完全不同的路线。他们认为,与其修改模型权重,不如让输入上下文本身进化。
ACE将模型分成三个专门角色:
关键创新在于"增量更新"机制。传统方法倾向于重写整个提示词,导致"上下文崩溃",即提示词越来越短,细节逐渐丢失。ACE则采用增量的"delta更新",每次只添加或修改相关部分,保持知识的连续性。
在AppWorld基准测试上,ACE实现了惊人的提升:任务完成率达到76.2%(基线仅63.7%),在更困难的challenge分割上提升更是达到24.5%。更重要的是,ACE将适应延迟降低了86.9%,成本降低了80%以上。
两项研究都观察到了有趣的涌现行为。ReasoningBank中的记忆项会随时间演化,从简单的执行指令("找到导航链接")逐步发展为复杂的组合策略("交叉验证需求并重新评估选项")。这种演化过程类似于人类从新手到专家的成长轨迹。
ACE生成的上下文则变成了详尽的"操作手册",包含领域特定的见解、工具使用指南,甚至可直接使用的代码片段。研究发现,与人类偏好简洁不同,大语言模型在面对长而详细的上下文时表现更好——它们能够自主提取相关信息。
结合 Google 的 ReasoningBank 来看,AI 学习正在发生从"无状态的计算工具"向"有记忆的智能体"的范式转变。这两篇论文都在绕开微调,在模型外围找解决方案,探索如何让AI系统真正具备持续学习和自我改进的能力。
ReasoningBank 让 Agent 记住具体教训,ACE 让上下文持续优化。一个是外部记忆,一个是内部流程。如果把两者结合,我们得到的将是一个既能积累经验(ReasoningBank),又能优化方法(ACE)的系统。
AI不仅需要变得更聪明,更要学会如何学习。"活的提示词"和“会学习的记忆”时代可能真的要来了。
关注公众号回复“进群”入群讨论。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-22
2025-07-28
2025-07-31
2025-07-30
2025-07-20
2025-08-07
2025-07-16
2025-08-23
2025-08-25
2025-08-11