免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

这次,RAG记忆被微信AI团队的超图盘活了

发布日期:2026-01-01 20:46:23 浏览次数: 1528
作者:PaperToday

微信搜一搜,关注“PaperToday”

推荐语

微信AI团队用超图技术突破RAG记忆瓶颈,让AI真正理解复杂关系!

核心内容:
1. 传统RAG在长文本推理中的痛点分析
2. HGMEM超图记忆系统的创新架构与三大核心模块
3. 在四大基准测试中实现性能与成本的双突破

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
https://github.com/Encyclomen/HGMem
Improving Multi-Step RAG with Hypergraph-Based Memory for Long-Context Complex Relational Modeling  
https://arxiv.org/pdf/2512.23959

港中大 & WeChat AI 联合团队

RAG双重暴击:“超长+全局推理”

传统 RAG 的痛点
具体表现
单步检索
只能“点到点”找答案,跨章节、跨事件关联无力
工作记忆=简单摘要
用一段流水账 plain text 记录历史,丢细节、丢引用、丢结构
图记忆
最多二元关系(A→B),无法表达“三元及以上”高阶关联

结果:在 100k+ token 的金融/法律/小说类文档里,一旦问题需要“全局 sense-making”(例如“为什么 Xodar 被送给 Carter 当奴隶?”),现有方法就像拼图只拼边缘,中间永远缺一块。

HGMEM——把“记忆”升级成“超图”

图1:左侧为第 t 步交互流程;右侧为超图记忆的演化示意

2.1 核心思想

把“工作记忆”不再当成一块硬盘,而是一张可动态生长、可高阶连接的超图

  • 每个超边(hyperedge)= 一个“记忆点”,可一次性连接 ≥2 个实体
  • 支持三种原子操作:Update ∣ Insert ∣ Merge
  • 每一步先“自我检查”→ 决定局部深挖 or 全局探索 → 检索 → 用 LLM 把新证据合并成更高阶的超边

2.2 关键模块一览

模块
作用
与传统做法差异
超图存储
用 hypergraph-db 实时维护节点 & 超边
不再是 plain text 或二元图
自适应检索
Local Investigation ↔ Global Exploration 切换
先“查周边”再“开新地图”,减少冗余
记忆合并
把多条低阶事实熔成一条高阶关系
二元图做不到 n-ary 融合
子查询生成
LLM 基于当前超图拓扑自动出题
避免人工模板
图2 记忆演化案例
图2 记忆演化案例

图2:Cowslip Moth 案例中,三条低阶事实被合并成一条“昆虫-植物共生”高阶关系

实验:成绩与成本双赢

3.1 主要结果

在 4 个超长文档基准(NarrativeQA / NoCha / Prelude / LongBench-V2)上,同样用 GPT-4o 或 Qwen-32B 做 backbone,HGMEM 全线 SOTA

表1:↑ 表示合并操作带来的高阶关联对“sense-making”类问题尤为关键

3.2 成本对比

与同样带工作记忆的 DeepRAG / ComoRAG 相比,HGMEM 平均 token 消耗与延迟几乎持平,并未因“超图”而额外增负:

表5 在线开销对比
表5 在线开销对比

表5:合并操作仅增加 <7% token,却带来显著精度提升

一句话总结

HGMEM 把“记忆”从静态硬盘升级成动态超图,让大模型在超长文本里像侦探一样层层抽丝、合并线索、全局破案,而且不增成本——多步 RAG 的“记忆”就该这么玩!

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询