微信扫码
添加专属顾问
我要投稿
字节跳动M3-Agent突破AI记忆瓶颈,打造能持续学习与思考的智能伙伴,开启人机交互新纪元。核心内容: 1. 双系统认知架构实现AI的7x24小时学习与推理 2. 人本主义记忆模型让AI从经验中提炼结构化知识 3. 强化学习驱动的思考链解决复杂问题能力
核心观点一览:
双系统认知架构: M3-Agent
首创“记忆”与“控制”并行系统,模拟人类认知,让AI能对流式视听信息进行7x24小时不间断的被动学习和主动推理。人本主义记忆模型: 模仿人脑,不仅记录“发生了什么”的情景记忆,更能提炼“这意味着什么”的语义记忆,实现从原始经验到结构化知识的升华。 实体为心的知识图谱: M3-Agent
创新地以“实体”为核心构建多模态记忆图谱,将同一人物的面孔、声音与事实牢固绑定,从根本上解决了长期身份一致性的核心难题。强化学习驱动的“思考链”: 摒弃传统单轮RAG,通过强化学习训练出能进行多轮“思考-搜索”的策略模型,让AI真正学会如何为解决复杂问题而“思考”。
想象一下,你家里的机器人助手,每天清晨都能看到你。第一天,它看到你喝咖啡;第二天,它又看到你喝咖啡;第三天……当你问它“我早上喜欢喝什么?”时,它却一脸茫然。这就是当前大多数AI Agent的现状——它们拥有惊人的瞬时理解能力,却患有严重的“金鱼记忆症”。
它们的“世界”被一个名为“上下文窗口”(Context Window)的狭窄囚笼所限制。每一次交互都是一次“重启”,它们无法将今天的“爱丽丝”与昨天的“爱丽丝”联系起来,更无法从“每天都喝咖啡”这个重复的行为中,提炼出“爱丽丝喜欢喝咖啡”这一条宝贵的知识。这种无法积累经验、形成长期记忆的缺陷,是阻碍AI从一个“工具”进化为一个真正“伙伴”的根本瓶颈。
这引出了一个直指通用人工智能核心的终极拷问:我们能否创造一个AI,让它像人类一样,拥有一个持续不断、自动更新的长期记忆系统?让记忆不再是“塞进去”的数据库,而是从连续的生命体验中“生长出来”的知识森林? 这篇来自字节跳动Seed团队的石破天惊之作——M3-Agent
,正是对这一宏伟蓝图的勇敢探索。
M3-Agent
的核心洞见,可以用一个精妙绝伦的比喻来诠释:一位永不疲倦的、会为世界撰写“生命日志”的AI私家侦探。
这位侦探的桌上,钉着一块巨大的软木板,这就是它的长期记忆(Long-Term Memory)。它的工作分为两个永不间断的并行流程:
日志记录员(Memorization Workflow):这位记录员通过一个微型摄像头和麦克风,持续不断地观察着世界。它的工作不是简单地把录像带堆在仓库里,而是进行精细的情报整理:
爱丽丝<face_1>
拿起咖啡杯,说‘早上没这个可不行’。”爱丽丝
有喝早咖啡的习惯。”;“通过声音<voice_2>
和面孔<face_1>
的比对,确认为同一人,进行档案合并。”案件分析师(Control Workflow):当接到一个指令(“给爱丽丝准备她最喜欢的早餐饮品”)时,这位分析师登场了。他不会大海捞针般地翻阅所有录像带,而是:
这个双流程、双记忆的系统,其革命性在于,它让AI的记忆系统从一个被动查询的“数据库”,进化成了一个主动构建、持续生长的“知识图谱”。
M3-Agent
的架构,如论文图1所示,是一个优雅的双循环系统,由记忆和控制两大核心支柱构成。
M3-Agent
的长期记忆,并非简单的文本存储,而是一个以实体(Entity)为节点、以关系(Relationship)为边的多模态知识图谱。每个节点都拥有如论文表3所示的丰富属性:
id |
||
type |
||
content |
||
embedding |
||
weight |
||
extra_data |
这个图谱的核心在于实体的一致性。通过内置的人脸识别和声纹识别工具,M3-Agent
能将不同时间、不同场景下出现的同一个人的面孔(<face_1>
)和声音(<voice_2>
)关联起来,并在语义记忆中生成一条关键的边:Equivalence: <face_1>, <voice_2>
。这解决了困扰多模态Agent最核心的难题:如何知道视频里的“他”和音频里的“他”是同一个人?
与负责“记录”的记忆模型(基于Qwen2.5-Omni)不同,负责“思考”的控制模型是一个纯语言模型(基于Qwen3),它扮演着策略模型的角色。它的任务是:给定一个问题和从记忆中检索到的信息,决定下一步是继续搜索([Search])还是直接回答([Answer])。这种迭代式推理的能力,是通过强化学习训练得来的,使其远比传统的单轮RAG更为强大和灵活。
M3-Agent
的“控制”工作流,是其另一个核心创新。它摒弃了传统RAG(检索增强生成)的一问一答模式,引入了强化学习(RL)来训练一个能够进行多轮迭代式推理的策略模型 。
如算法1所示,当接到一个问题 时,Agent会执行最多 轮的“思考-行动”循环:
Action: [Search], Content: "爱丽丝的身份ID是什么?"
。CLIP_4: 爱丽丝的名字是<character_3>
”。Action: [Search], Content: "<character_3>早上喜欢喝什么?"
。Action: [Answer]
,并给出最终答案。为了让模型学会如何进行高效的、有逻辑的连续搜索,作者采用了DAPO(Direct Advantage Policy Optimization),一种先进的强化学习算法。其优化目标可以被概括为:
人话解读: 这个公式的核心思想是:对于一个完整的、由多轮搜索组成的推理轨迹 ,我们会先根据最终答案的正确性给予一个总奖励 (答对为1,答错为0)。然后,我们将这个奖励转化为每一步行动的优势值 (即,采取这一步搜索,对最终答对问题有多大“好处”)。最后,通过优化这个目标函数,模型会学会更频繁地采取那些能够导向高奖励轨迹的搜索行为,并抑制那些可能导向错误答案的无效搜索。 这就是RL如何赋能M3-Agent
学会“思考”的数学原理。
为了证明M3-Agent
的卓越能力,作者们发现现有的长视频问答(LVQA)基准存在不足:它们大多关注短期的动作识别或时空定位,而缺乏对需要长期记忆积累才能回答的高级认知能力的评测。
为此,他们构建了一个全新的、极具挑战性的评测基准——M3-Bench。它包含两大部分:
M3-Bench的真正创新之处在于其精心设计的问题类型(如论文表1所示),它们直击长期记忆的核心能力:
这个基准的建立,本身就是对该领域的一大贡献,它为评测未来更高级的AI Agent提供了一把精准的“标尺”。
M3-Agent
在M3-Bench以及另一个公开基准VideoMME-long上,与一系列强大的基线模型(包括基于Gemini-1.5-Pro和GPT-4o的Agent)进行了正面交锋。
如表5所示,M3-Agent
在所有三个基准上都取得了最佳性能。相较于最强的基线模型(Gemini-GPT4o-Hybrid),M3-Agent
的准确率在M3-Bench-robot
上高出**6.7%,在M3-Bench-web
上高出7.7%,在VideoMME-long
上高出5.3%**。这定量地证明了其精心设计的架构和RL训练的优越性。
更具洞察的是论文中的消融实验,它们揭示了M3-Agent
成功的核心要素:
M3-Agent
为多模态和Agent研究开辟了一片广阔的新大陆。以下是几个可以直接在其基础上展开的前沿研究方向:
“记忆剪辑师”:研究长期记忆的遗忘与压缩机制
M3-Agent
的记忆图谱会随着时间无限增长,最终会面临存储和检索效率的瓶颈。可以设计一个“记忆剪辑师”模块,定期对记忆图谱进行压缩和遗忘。例如,利用LLM的总结能力,将大量相关的、琐碎的情景记忆,融合成一条更凝练的、新的语义记忆(“在过去的一个月里,爱丽丝每周一、三、五早上都喝了咖啡”),然后可以安全地“遗忘”掉那些原始的、低价值的记忆节点。这正是通往可扩展的、真正的“终身学习”Agent的关键。“主动提问者”:从被动记忆到主动求知
M3-Agent
是一个被动的观察者。一个更高级的智能体应该具备主动求知的能力。可以研究一种基于“信息熵”或“好奇心”的驱动机制。当Agent在构建记忆时,如果发现某个关键信息缺失(例如,知道一个人的脸,但从未听过他的声音),它可以主动发起提问:“你好,我们之前见过,但我还不知道你的名字,可以告诉我吗?”。这将把Agent从一个“记录员”提升为一个“学习者”。“集体记忆”:构建多Agent共享的记忆网络
M3-Agent
的发布,其意义远不止于“让AI拥有了记忆”。它更深刻的启示在于,它为我们揭示了一条通往更通用、更持续的世界模型的全新路径。
传统的视频世界模型,试图在一个巨大的神经网络中,端到端地、隐式地对世界进行建模。而M3-Agent
则另辟蹊径,它证明了通过一个显式的、结构化的、语言与多模态特征混合的记忆图谱,我们同样可以构建一个功能强大的世界模型。这种“以小见大”、“积少成多”的构建方式,可能更具可解释性、可扩展性,也更接近人类认知世界的真实过程。
我们正在见证AI Agent从一个执行指令的“工具人”,向一个能够与我们共同生活、共同成长、拥有共同记忆的“伙伴”演进的历史性转折点。M3-Agent
所开启的,是一个关于机器认知、终身学习和人机共生的全新篇章。
这篇文章的解读仅仅是一个开始。对于任何希望深入探索或将这些思想付诸实践的研究者,以下资源和问题或许能为您点亮前路。
M3-Agent
的记忆完全建立在其第一人称的、不完美的感知之上。人类拥有修正错误记忆、辨别信息真伪的能力,但M3-Agent
如何处理“记忆污染”的问题?
例如,如果Agent错误地将爱丽丝的声音识别为了鲍勃的声音,并记录了一条错误的Equivalence
关系,这个错误可能会像病毒一样,在记忆图谱中污染所有后续的推理。一个核心的思辨点是:一个拥有长期记忆的AI,是否必须配套一个同样强大的“事实核查与记忆修正”子系统? 这个子系统应该如何设计?是依靠逻辑一致性自检,还是需要外部“真相源”的干预?这个问题的答案,将直接决定这类拥有长期记忆的Agent,在真实世界中的可靠性和安全性。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-05-29
2025-05-23
2025-06-01
2025-06-21
2025-06-07
2025-06-12
2025-06-13
2025-06-19
2025-05-28
2025-07-29
2025-08-19
2025-08-19
2025-08-18
2025-08-18
2025-08-18
2025-08-15
2025-08-14
2025-08-14