微信扫码
添加专属顾问
我要投稿
MemOS:AI记忆管理的先行者,比Claude更早解决了长期记忆与知识库的难题,现已开源可用!核心内容: 1. MemOS如何通过三层架构实现AI动态记忆管理 2. 项目核心功能:长期互动记忆、多模态支持、知识库共享 3. 与传统RAG方案的本质区别与优势
昨天刚被路透 Claude 的「Knowledge Base + Memory」将进行更新,本质上解决的是同一个老问题:
原生的 AI,每一次对话对模型来说都是第一次见你。模型不会记得你之前做过什么、怎么决策、有什么偏好。
要让 AI 看起来记得,我们只能在每次请求时,把历史上下文、用户信息、文档内容一股脑儿重新塞回去。
在逛 GitHub 的时候,我发现了一个已经 3700+ Star 的开源项目:MemOS。
它不是简单拉长上下文窗口,而是把记忆和知识库当成一等公民来管理,专门处理长期记忆、上下文连续性,以及跨对话的状态复用。以及,支持知识库。
更重要的是——
这些能力现在就已经能用。
MemOS 已经支持把文件、URL 等内容接入知识库,并在对话过程中持续更新记忆,让模型不再每次从零开始。项目也在持续维护和快速迭代中,不需要等下一代模型或“未来功能”。
如果你最近刚好在关注 Claude、Coworks 和知识库相关以及记忆机制,
那 MemOS 可以说是一个现在就能上手体验的版本。
MemOS 是行业首个 AI 记忆操作系统,它不仅仅是一个存储工具,通过首创的三层记忆操作架构,为 AI Agent 装上了海马体,让 AI 真正拥有了可成长、可管理的记忆能力。
01
开源项目简介
开源地址:https://github.com/MemTensor/MemOS如果你不使用 MemOS,去管理 AI 应用的记忆:你通常要自己切分文档、做向量化、写检索逻辑,还得担心上下文超长。
MemOS 这个开源项目的的思路是:把记忆当成一种系统资源来管理,就像操作系统管理内存和硬盘一样。
它有一套完整的框架,让你的 AI 能够:
记住长期互动: 不只是几句对话,而是长期的用户偏好和经历。
自我进化: 随着对话增多,它对你的了解是动态更新的,而不是死的。
多模态记忆: 这点还是很强的,之处图片和文档/图表的理解与记忆,不再局限于纯文本。
知识库能力:你可以直接把文件接入 MemOS,形成可检索、可复用的长期知识资产。支持上传文件 / URL自动解析;一个知识库可被多个项目共享使用;对话持续进行时,记忆可动态更新与修正。
和 RAG 的区别
传统 RAG 方案的核心痛点在于它是无状态的,而 MemOS 提供的是动态的长期记忆。
具体区别可以看下面这两张图:
MemOS 架构
MemOS 的架构确实有点东西。它不仅仅是存取数据,它引入了调度 Scheduling) 的概念。它把记忆分成了好几种类型:
有存文本的 Textual Memory:比如你说了啥,有加速推理的 Activation Memory,这是为了省 token 和加速,甚至还有 Parametric Memory 存 LoRA 权重的。
工具记忆 Tool Memory: 它能记录 Agent 调用工具的轨迹。如果你的 Agent 上次用某个工具报错了,下次它可能就记得要换种用法。这才是真正的智能,而不是每次都掉进同一个坑里。
Redis Streams 调度器: 这就很工程化了。为了处理高并发,它用 Redis Streams 搞了一套多级队列。
03
如何使用
① 创建知识库
MemOS 会自动完成存储、解析、分段和生成记忆。你需要等待文档状态显示为「可用」。在知识库列表页,复制刚刚创建的知识库 ID,后续代码中会用到:
② 准备环境
在 Python 环境中运行以下命令安装必要的库:
pip install OpenAI datetime准备 API Key
MemOS API Key:去如下网站注册一下,然后打开 API 密钥控制台,生成一个 API 密钥复制一下。
地址:https://memos-dashboard.openmem.net/cn/quickstart/?source=landingOpenAI API Key:准备你的大模型服务商 Key。
③ 代码实现核心逻辑
你需要编写一个 Python 脚本,先配置环境变量,在代码中设置 API Key 和 知识库 ID:
import osimport jsonos.environ["MEMOS_API_KEY"] = "你的_MemOS_Key"os.environ["OPENAI_API_KEY"] = "你的_OpenAI_Key"os.environ["MEMOS_BASE_URL"] = "https://memos.memtensor.cn/api/openmem/v1"# 替换为你的知识库 ID 列表os.environ["KNOWLEDGE_BASE_IDS"] = json.dumps(["你的_知识库ID"])
然后你只需要调用 MemOS 的三个核心 API,搜索记忆、添加消息、获取消息,就能让 AI 拥有一个能够记住用户偏好且不断进化的知识库。
④ 实例化助手:
ai_assistant = KnowledgeBaseAssistant()user_id = "test_user_001" # 定义一个用户ID
⑤ 启动对话循环:
创建一个 while 循环,接收用户输入 input,调用 ai_assistant.chat() 获取回复并打印。
还有其它的用法,感兴趣的去访问开源项目主页。
开源地址:https://github.com/MemTensor/MemOS03
点击下方卡片,关注逛逛 GitHub
这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-01-20
TranslateGemma-27B谷歌开源翻译模型有多强?
2026-01-19
用 AgentScope Java 开家 AI 奶茶店
2026-01-19
沉浸式翻译杀疯了!双重开源:左手像素级还原PDF排版,右手本地AI隐私保护!
2026-01-18
开源版Cowork爆火,逼得Anthropic下放Cowork
2026-01-18
ollama v0.14.2 更新:新增TranslateGemma翻译模型、支持55种语言、CLI优化与MLX构建指南发布!
2026-01-18
刚开源就爆火,Claude Cowork 平替版,诞生了!
2026-01-18
Google 把翻译能力彻底开源了!TranslateGemma:550种语言通吃,还能直接看图翻译!
2026-01-17
速递 | OpenAI官方报告泄露:DeepSeek一周年,他们慌了
2025-11-19
2025-10-27
2025-10-27
2025-12-22
2025-12-10
2025-11-17
2025-11-07
2025-10-29
2025-10-24
2025-12-23
2026-01-20
2026-01-16
2026-01-02
2025-12-24
2025-12-22
2025-11-12
2025-11-10
2025-11-03