支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


MemOS:一个为AI系统设计的记忆操作系统

发布日期:2025-07-09 20:11:27 浏览次数: 1531
作者:唐国梁Tommy

微信搜一搜,关注“唐国梁Tommy”

推荐语

MEMOS为AI系统打造专属记忆操作系统,解决LLM的"金鱼记忆"问题,开启持续学习与个性化AI新时代。

核心内容:
1. LLM当前面临的四大记忆缺陷与挑战
2. MEMOS作为记忆操作系统的核心设计理念
3. 下一代AI实现持续学习和深度个性化的技术路径

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

今天,我们要深入探讨一个可能会重塑我们与AI交互方式的重磅研究。你是否曾感觉,尽管今天的大语言模型(LLM)能力超凡,但在记忆力方面却像个“金鱼”?它们在长对话中会忘记之前的约定,无法真正记住你的偏好,更别提持续更新知识库了。这种“失忆症”极大地限制了LLM成为真正智能助手的潜力。为了解决这个问题,来自MemTensor、上海交大等机构的研究者们提出了一项极具开创性的工作——MEMOS(Memory Operating System)

这篇名为《MEMOS: A Memory OS for AI System》的论文,不仅仅是提出了一种新技术,它更试图构建一个全新的范式:将AI的“记忆”像计算机的CPU和内存一样,作为一个可管理的、可调度的核心系统资源来对待。 这篇文章将带你深入理解,MEMOS是如何为AI打造一个专属的“记忆操作系统”,以及它将如何引领下一代AI走向持续学习和深度个性化的未来。

一、为何LLM需要一个“记忆操作系统”?

在我们深入MEMOS的设计之前,首先要理解它试图解决的问题有多么重要和普遍。当前LLM的记忆缺陷,主要体现在以下四个方面:

1. 长程依赖建模的困境:在处理长篇文档、多轮对话或复杂工作流时,LLM受限于上下文窗口的长度。即使窗口很长,二次方复杂度的注意力机制也带来了巨大的计算开销。结果就是,模型常常“忘记”对话早期的关键信息,导致逻辑不连贯,前后矛盾。

2. 对知识演化的迟钝:我们生活的世界知识在不断更新——新的法律颁布,新的科学发现,新的市场趋势。但LLM的知识被固化在训练完成那一刻的参数里。虽然检索增强生成(RAG)技术允许模型在运行时从外部数据库检索新知识,但这更像是一种“开卷考试”的临时策略。RAG本身是无状态的,它无法管理知识的版本、淘汰过时的信息,也无法解决知识间的冲突,更像是一个临时的“信息补丁”,而非一个内化的、融会贯通的知识体系。

3. 个性化与多角色支持的缺失:目前的LLM大多是“一次性”的。每次对话都是一个新的开始,它无法记住你的写作风格、编程偏好,也无法在你作为“公司经理”和“家庭父亲”两个不同角色间自如切换。虽然一些商业模型推出了记忆功能,但往往存在容量有限、更新机制不透明、用户无法精细控制等问题。

4. 跨平台的“记忆孤岛”:你在ChatGPT上培养的写作助手,它的“经验”无法迁移到你的编程IDE里的AI Copilot上。用户的宝贵交互数据被困在各个应用和平台中,形成了一个个“记忆孤岛”,极大地影响了体验的连续性和知识的复用价值。

这些问题的根源,论文作者一针见血地指出:并非某个单一模块的失败,而是整个系统层面缺乏一个用于组织、调度和治理记忆的统一机制。 LLM需要一个“操作系统”来扮演这个角色,而MEMOS,正是为此而生。

二、核心贡献:MEMOS带来了什么?

MEMOS的核心思想,是实现一次范式转移:从将记忆视为模型推理的副产品,转变为将其视为系统的一等公民。为了实现这一目标,MEMOS带来了三大核心能力:

  • 可控性 (Controllability):MEMOS对记忆单元提供全生命周期的管理,从创建、激活、融合到最终的销毁,都可以在系统的统一调度下进行。它还支持多层级的权限控制和操作审计,确保在多用户、多任务环境下记忆的安全和可追溯。例如,你可以设定一条用户偏好记忆只对某个特定的AI代理生效,并在任务完成后自动归档。

  • 可塑性 (Plasticity):MEMOS支持记忆的动态重组和迁移。开发者或系统可以根据任务目标,对记忆进行切片、打标签、建立层级关系。这使得模型可以为不同的任务激活不同的“记忆视图”,或在角色转换时动态更新记忆关联,实现快速的认知行为调整。

  • 可演化性 (Evolvability):这是MEMOS最具革命性的一点。它打通了不同形态记忆之间的转换通道,支持将高频使用的外部知识(纯文本)内化为模型的即时反应(激活记忆),甚至固化为模型的内在能力(参数记忆)。这种跨记忆形态的演化,为模型的自主学习和持续进化提供了坚实的基础。


在论文的图4中,作者提出了一个极具前瞻性的观点——“记忆训练范式”(Mem-training Paradigm)。他们认为,继依赖数据和参数规模的“预训练扩展定律”之后,下一波AI性能的飞跃将来自于通过可控的、持续演化的记忆单元进行训练。MEMOS正是实现这一宏大愿景的底层基础设施。

三、方法解析:MEMOS是如何工作的?

理解了MEMOS的“为什么”和“是什么”之后,我们来深入探讨最关键的部分:MEMOS的设计哲学深受传统计算机操作系统的启发,其精巧的架构可以从三个层面来解析。

3.1 核心抽象:万物皆可 MemCube

操作系统管理硬件的核心是抽象,例如将复杂的磁盘扇区抽象为“文件”。同样,MEMOS管理记忆的核心,是提出了一个统一的抽象单元——MemCube(记忆方块)

无论是一段外部知识库里的文字、一个用户偏好、推理过程中产生的KV-Cache张量,还是一组用于模型微调的LoRA参数,在MEMOS里,它们都被封装成一个标准的MemCube。这就像操作系统里的一个文件或进程,拥有标准化的属性和内容。

一个MemCube由两部分构成(见论文图6):

1️⃣ 记忆载荷 (Memory Payload):这是记忆的实际内容。type字段会指明它的形态,是explicit(纯文本)、activation(激活状态)还是parametric(参数补丁)。

2️⃣ 元数据头 (Metadata Header):这是MEMOS进行管理和调度的灵魂。它包含了丰富的描述信息,可以分为三类:

  • 描述性标识符:比如timestamp(创建/使用时间)、source(来源,如来自哪次会话)、semantic_type(语义类型,如是“事实”、“用户偏好”还是“任务指令”)。它们是记忆的“身份证”。

  • 治理属性:比如access(访问权限,谁可以读/写)、expires(过期时间)、priority(调度优先级)。它们是记忆的“行为准则”。

  • 行为使用指标:比如usage(访问频率),MEMOS通过追踪这些动态指标来判断一个记忆是“热数据”还是“冷数据”,从而决定是否需要将其缓存、归档或在不同记忆类型间转换。


通过MemCube这个统一的抽象,MEMOS成功地将五花八门的记忆资源“格式化”,为上层的统一调度和管理铺平了道路。

3.2 三位一体的记忆模型

MemCube的基础上,MEMOS系统性地将LLM的记忆划分为三种类型,它们之间可以动态转换,形成一个完整、流动的记忆生态(见论文图5)。

1️⃣ 纯文本记忆 (Plaintext Memory):这可以理解为LLM的外部笔记或参考资料库。它以文本形式存在,易于编辑、追溯和共享。比如,RAG检索到的文档、用户输入的指令、结构化的知识图谱节点等都属于此类。

2️⃣ 激活记忆 (Activation Memory):这相当于LLM的工作记忆或短期思绪。它的核心是Transformer模型中的KV-Cache,即对已经处理过的上下文信息的键值对表征。激活记忆与模型推理紧密耦合,能够实现极快的上下文响应。高频使用的纯文本记忆可以被预先计算并存为激活记忆,从而在需要时“瞬间加载”,避免了从头处理文本的延迟。

3️⃣ 参数记忆 (Parameter Memory):这代表了LLM根深蒂固的知识和技能,被编码在模型的权重参数中(例如通过LoRA模块的形式)。当某些知识或行为模式(如特定的总结风格、法律领域的推理逻辑)被反复、稳定地使用时,MEMOS可以将其“蒸馏”并固化为参数记忆。这种记忆的调用效率最高,因为它已经成为模型能力的一部分。

这三种记忆形态的转换路径,是MEMOS实现可演化性的关键。例如:

  • 纯文本 → 激活:对于一个需要反复参考的医疗诊断标准,系统可以将其预编码为KV-Cache(激活记忆),下次调用时直接注入,实现毫秒级响应。

  • 激活/纯文本 → 参数:如果一个AI编程助手发现用户总是在用一种特定的代码注释风格,系统可以将这种风格模式蒸馏成一个微小的LoRA模块(参数记忆),使其成为助手的固有能力。

  • 参数 → 纯文本:如果某个LoRA模块代表的知识已经过时,系统可以将其卸载为纯文本进行归档,以节约模型加载开销。


3.3 三层系统架构:AI记忆的流水线

为了协同管理MemCube和这三种记忆类型,MEMOS设计了一个清晰的三层架构,就像一条精密的工业流水线(见论文图7)。

图注:MEMOS的整体架构分为接口层、操作层和基础设施层,各模块协同工作,完成从用户输入到记忆存储的全流程。

让我们以一个具体的例子来走一遍这个流程:用户输入“帮我总结一下上个月关于‘气候政策’的所有会议纪要”。

1️⃣ 接口层 (Interface Layer):这是系统的前台接待。

  • 用户的自然语言请求首先被MemReader模块捕捉。它像一个聪明的语义解析器,会从中提取出关键信息:任务意图(总结)、时间范围(上个月)、主题(气候政策)、记忆类型(会议纪要)。

  • 然后,它将这些信息打包成一个结构化的Memory API调用,传递给下一层。


2️⃣ 操作层 (Operation Layer):这是系统的中央处理器。

  • MemOperator模块接收到API调用后,会根据“气候政策”、“会议纪要”等标签,在记忆库中进行高效检索。它可能会构建一个临时的记忆图谱,关联所有相关的MemCube

  • MemScheduler模块是决策核心。它会查看检索到的MemCube,根据它们的元数据(如优先级、使用频率)和当前任务的上下文,决定最终调用哪些记忆,以及以何种方式注入模型(是作为纯文本、激活记忆,还是加载一个相关的参数模块)。

  • MemLifecycle模块则像一个“档案管理员”,会记录这次调用行为,并根据规则更新被调用MemCube的状态(例如,将其状态从归档更新为激活)。


3️⃣ 基础设施层 (Infrastructure Layer):这是系统的后端仓库与安保。

  • MemVault是实际的存储系统,它可能对接了多种后端,如向量数据库、关系型数据库或云存储。

  • MemGovernance模块在整个过程中执行安全策略,确保这次调用符合用户的权限设置。

  • 如果需要,MemLoader / MemDumper模块可以支持记忆的导入导出,例如从其他系统迁移会议纪要。

  • MemStore则提供了一个开放的接口,允许将经过脱敏和授权的“气候政策”相关记忆发布出去,供其他AI代理订阅和使用。


通过这套行云流水的架构,MEMOS将复杂的记忆管理过程自动化、标准化,让上层应用和用户可以专注于任务本身,而无需关心底层的实现细节。

四、实验结果与分析:MEMOS的“成绩单”

一个优秀的系统设计,最终要用数据说话。MEMOS在实验中展现了其强大的实力。

4.1 端到端性能:在LOCOMO基准上全面领先

研究团队在LOCOMO——一个专门为评测LLM记忆密集型任务(如长程问答、时间线推理)而设计的基准测试集——上对MEMOS进行了全面评估。他们将搭载了MEMOS的GPT-4o-mini与多种主流的记忆增强方案(如LangMem、Zep、OpenAI-Memory、mem0)进行了对比。

结果令人印象深刻。如论文表3所示,MEMOS在所有四个子任务(单跳、多跳、开放域、时间推理)以及总体得分上,均取得了第一名。

  • 总体得分(LLM-Judge Score)memos-0630获得了73.31分,显著高于第二名mem0的64.57分,以及其他基线方法。

  • 优势领域:在尤其考验长期记忆和信息整合能力的“多跳推理”和“时间推理”任务上,MEMOS的优势尤为明显。这直接证明了其系统性的记忆管理架构,相比于简单的检索或图谱方法,能更有效地组织和利用上下文信息。


4.2 效率验证:KV-Cache带来的极致加速

除了效果,效率在实际应用中同样至关重要。研究团队设计了一个巧妙的实验来验证“激活记忆”的加速效果。他们比较了两种记忆注入方式的“首个词元生成时间”(Time to First Token, TTFT):

  • 纯文本注入:将记忆内容作为普通文本拼接到输入提示(Prompt)的开头。

  • KV-Cache注入:将预处理好的记忆(激活记忆)直接注入到模型的注意力层缓存中。


结果再次验证了MEMOS设计的优越性。如论文表5所示,在所有测试的模型(Qwen系列)和配置下,KV-Cache注入都带来了巨大的延迟降低。

  • 峰值加速:在最显著的案例中(Qwen2.5-72B模型,长上下文),TTFT从1.79秒骤降至0.15秒,实现了高达91.4%的加速

  • 语义一致性:最关键的是,这种加速是在完全不改变模型输出内容的前提下实现的。这意味着MEMOS可以在保证回答质量的同时,为用户带来更流畅的交互体验。


这些实验数据,从“效果”和“效率”两个维度,强有力地证明了MEMOS作为一个系统级解决方案的价值。它不仅更“聪明”,也更“快”。

五、启示与未来:记忆的开放市场

MEMOS为我们描绘了一幅激动人心的蓝图,但它也只是一个开始。论文的作者也指出了未来的几个重要方向:

  • 跨LLM的记忆共享:制定一个通用的“记忆交换协议”(Memory Interchange Protocol, MIP),让不同公司、不同架构的LLM能够安全、高效地共享和复用记忆单元。

  • 自演化的记忆块:开发能够根据使用反馈进行自我优化、重构甚至“进化”的MemBlock,进一步减少人工维护的需求。

  • 可扩展的记忆市场:最终,建立一个去中心化的记忆交易市场。在这个生态里,领域专家可以发布、出售他们封装好的高质量“记忆”,而AI应用开发者则可以按需购买、订阅,从而极大地加速AI应用的开发和知识的传播。


总而言之,MEMOS不仅仅是一个技术框架,它更是一种思想的革新。它告诉我们,要让AI真正拥有持续学习和深度个性化的能力,我们不能再满足于给它贴上临时的“便利贴”(RAG),而是需要为它构建一个健全、强大、可演化的“记忆宫殿”。MEMOS,正是这座宫殿的第一块基石。

参考文献

论文名称: MemOS: A Memory OS for AI System

第一作者: MemTensor (Shanghai) Technology Co., Ltd.

论文链接: https://arxiv.org/pdf/2507.03724

发表日期: 2025年7月8日

GitHub:https://github.com/MemTensor/MemOS.git


你好,我是唐国梁Tommy,专注于分享AI前沿技术。

欢迎你加入我的精品课程《深入LLM与RAG 原理、实现与应用》。本课程将为你提供深入的理论知识与实践操作,帮助你深刻理解并熟练运用主流的大语言模型(LLM)和检索增强生成(RAG)。

你将学习如何构建和部署独立的Embedding模型服务,用于计算文本查询的向量嵌入;此外,我还将带你完成两个完整的Chatbot项目实战:FAQ-Chatbot(自研项目)和 LangChain-Chatchat(整合了自研Elasticsearch知识库功能)。

我的所有精品课程永久有效,并会适时更新,让你真正实现终身学习。点击以下视频查看课程简介:

更多关于精品课程的相关介绍,请查阅:《精品付费课程学习指南》

欢迎你到我的B站:唐国梁Tommy

或 我的个人网站:TGLTommy.com

学习更多AI前沿技术课程,请参阅我为大家整理的:《免费公开课学习指南》

👇点击左下角“阅读原文”可直接跳转至我的B

#AI大模型 #AIGC #LLM #AI前沿技术 #唐国梁Tommy #检索增强 #RAG技术 #大模型知识

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询