微信扫码
添加专属顾问
我要投稿
OpenClaw 用本地 Markdown 文件重构 AI 记忆机制,让 AI 真正成为你的长期工作伙伴。核心内容: 1. Context 与 Memory 的本质区别及其在 AI 交互中的作用 2. OpenClaw 的四块信息积木组装机制解析 3. 本地 Markdown 文件带来的三大产品价值:透明、可编辑、可迁移
聊得热火朝天,隔天关掉窗口再打开,AI 就把你忘得一干二净。这种聊完即焚的体验,让 AI 很难成为真正的长期助理。
我们都期待 AI 能像个长期同事:记得你的偏好,记得上周的项目背景,记得做过的决策。
AI 的记忆并不是玄学,它其实是产品设计 + 工程机制的组合。最近大火的OpenClaw,就是一个很好的例子。
今天我们试着拆解 OpenClaw 的记忆机制,看看它是如何用本地 Markdown 文件来解决这个难题的。
在讨论 AI 记忆时,容易混淆两个概念。先厘清一下:
Context(上下文)
把它理解为“短期工作台”。
它是与AI交互的单次请求中,模型能“直接看到”的所有信息。
特点:临时、有限、昂贵。你的 Prompt 窗口多大,它就只能装多少。一旦窗口关了,或者字数超了,信息就丢了。
Memory(长期记忆)
它是“档案室”。
它是那些跨会话、跨天保存的信息资产。
特点:持久、可增长、可检索。它不直接在模型眼前,但随时可以去查。
使用一款AI产品,考察“它记不记得住”,本质上是召回链路的体验设计,即能不能在需要的时候,准确地从“档案室”(Memory)里抽出对的那张纸,放到“工作台”(Context)上。
OpenClaw 的每一次对话,都是一条精密组装的信息流水线。
当你向它发出一个指令,OpenClaw 在后台其实组装了四块积木喂给模型:
以上四块积木,就是 OpenClaw 的输入组装器。在每一次对话中,模型都会看到这四块内容,然后生成更符合当前上下文的回复。
OpenClaw 没有把记忆藏在云端数据库里,而是直接放在了你的工作区目录下。
它的记忆形态,就是本地可读可写的 Markdown 文件。
这种设计带来了三个明显的产品价值:
在 OpenClaw 的实践中,这种记忆被分成了两层:
~/clawd/├── MEMORY.md - Layer 2: Long-term curated knowledge└── memory/├── 2026-01-26.md - Layer 1: Today's notes├── 2026-01-25.md - Yesterday's notes├── 2026-01-24.md - ...and so on└── ...
把“记忆”从一个隐式的功能(Hidden Feature),变成了一个显式的资产(Explicit Asset)。可控性带来了信任感。
光存下来没用,关键是怎么用。OpenClaw 的记忆调用链路,类似人类查资料的过程:
第一步:检索(memory_search)
当你要问个事,AI 先去“档案室”里翻目录。它会根据阈值(相似度多少才算相关)和数量上限(比如只看前 5 条),找出最相关的片段。
第二步:读取(memory_get)
找到了线索后,它会按图索骥,读取具体文件的具体段落。
第三步:写入/更新
它不需要专门的“写入”工具。因为它能读写文件,所以“写记忆” = “编辑文件”。这让它的记忆维护能力和通用的文件编辑能力复用了。
长期记忆的关键不仅仅是“存”,而是在正确的时机(Trigger),把对的片段(Top-K)拉回到 Context 里。
为什么你不需要说关键词,它也能懂你的意思?因为整个记忆的处理过程是一条标准流水线:
1. 监听(Watch):随时盯着文件变动(监视 MEMORY.md + memory//*.md),一定要检测到“有新东西”才开始动。
2. 切片(Chunking):把长文章切成小块。为什么要切?因为太长了检索不准,太短了意思不完整。这里有个overlap(重叠)参数,就像切藕一样,切断了还得连着点丝,保证语义连贯。
3. 向量化(Embedding):把这些切片扔给 Embedding 模型,变成一串数字(向量)。
4. 本地存储:存在一个本地的 SQLite 文件里。这里存了切片内容、向量数据、关键词索引。
5. 混合检索(Hybrid Search):这是OpenClaw的检索核心。
·语义检索(向量搜索):召回“意思相近”的内容。(搜“水果”能找到“苹果”)
·关键词检索(BM25搜索):补漏人名、ID、日期这种硬指标。
·加权融合:把两者的结果按权重(语义0.7 : 关键词0.3)合并。
你肯定不希望写代码的 AI 突然跟你聊起昨天写的菜谱。
OpenClaw 的设计目标很明确:不同任务/身份的记忆互不污染。
物理隔离:每个 Agent 绑定独立的工作区和索引文件。
逻辑分域:
这是信息边界的设计。本质是为了降低误召回(幻觉)的风险,防止跨域串话。
最后,抛开技术细节,这套机制能给所有设计 AI 产品的人带来什么启示?
长期记忆是套组合拳:它 = 存储形态 + 索引机制 + 召回策略。
把记忆资产化:让用户看见、能改、能带走。“可控性”是 AI 时代最稀缺的奢侈品。
决胜在召回:真正的体验差异点,不在于你存了多少,而在于你能不能在该出现的时候,默认且稳定地把它找出来。
参考资料:
1. https://x.com/manthanguptaa/status/2015780646770323543
2. https://github.com/openclaw/openclaw
3.https://deepwiki.com/openclaw/openclaw/7-memory-system
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-14
国产模型再发力!刚刚,字节发布 Doubao 2.0 Pro,硬刚 GPT-5.2!
2026-02-14
试用 “全球最强模型” Gemini 3 Deep Think
2026-02-14
豆包 2.0 模型发布,全信息整理(全网最完整,另附 79 页 Model Card)
2026-02-14
一切皆可Agent Skills,无处不在的AI Agent会替代业务流程吗?
2026-02-14
豆包大模型2.0发布
2026-02-14
DeepSeek-V3.2 on GB300:性能表现与部署实践
2026-02-14
CoPaw发布:即刻加载你的专属智能搭档
2026-02-14
OpenAI Frontier 发布:不是新模型,而是「企业级 AI 操作系统」的诞生
2026-01-24
2026-01-10
2025-11-19
2026-01-26
2026-01-01
2025-12-09
2025-12-21
2026-01-09
2026-02-03
2026-01-09
2026-02-14
2026-02-13
2026-02-12
2026-02-12
2026-02-11
2026-02-11
2026-02-11
2026-02-11