微信扫码
添加专属顾问
我要投稿
E²GraphRAG框架突破图结构RAG效率瓶颈,索引速度提升10倍,检索速度提升100倍,为智能检索开辟新路径。 核心内容: 1. 现有图结构RAG方法的效率瓶颈与局限性分析 2. E²GraphRAG的双结构设计与自适应检索策略创新 3. 实验验证的性能提升与问答表现优势
“ E²GraphRAG 框架,直击图结构 RAG 方法效率瓶颈。其在索引阶段构建摘要树与实体图双结构,检索阶段采用自适应策略动态选择检索模式,实现索引速度较 GraphRAG 提升 10 倍,检索速度较 LightRAG 提升 100 倍的突破,为高效智能检索开辟新路径。”
大家好,我是肆〇柒。大型语言模型(LLM)在自然语言处理(NLP)任务中广泛应用,但存在幻觉问题和领域知识缺乏等局限性。检索增强生成(RAG)技术通过整合外部知识源,与 LLM 的上下文学习能力,展现出缓解这些问题的潜力。RAG 技术在开放域问答、知识密集型 NLP 任务和长文档理解等领域具有重要应用价值,能够显著提升模型的回答准确性和可靠性。
现有图结构 RAG 方法(如 GraphRAG、RAPTOR、LightRAG 等)虽具优势,但存在明显问题。GraphRAG 作为首个从原始文本自动构建知识图并支持全局查询的方法,因频繁调用 LLM 导致索引阶段成本高昂、延迟显著。在实际应用中,GraphRAG 处理一本 200k tokens 的书,因调用 LLM 次数过多,索引时间长达数小时,时间成本增加约 3-5 倍。RAPTOR 虽构建层次摘要树,却因忽略文档原始语境流程、聚类耗时且采用传统向量检索导致结果偏差。LightRAG 和 FastGraphRAG 虽降低索引开销,但 LLM 输出格式不稳定导致实体和关系提取不准确。LazyGraphRAG 因检索延迟高,无法满足实时新闻分析系统快速检索和生成新闻洞察的需求,导致响应迟缓,影响用户体验。
E²GraphRAG 针对现有图结构 RAG 方法的效率瓶颈、单一结构整合不足以及检索灵活性问题,提出创新解决方案。其核心创新在于构建摘要树与实体图双结构,结合自适应检索策略,实现高效索引与精准检索。实验表明,E²GraphRAG 在索引阶段比 GraphRAG 快 10 倍,在检索阶段比 LightRAG 快 100 倍,同时保持出色的问答性能,在 NovelQA 使用 Qwen 时取得最佳性能,在 InfiniteQA 跨两个基础模型均表现最佳。
RAG 方法可以根据其依赖的外部知识源类型大致分为两类:基于非结构化文本知识库的 RAG 方法和基于结构化实体图的 RAG 方法。
这类方法主要依赖于非结构化的文本数据作为外部知识源。它们通过检索与查询相关的文本片段(通常是文档或文档片段)来增强语言模型的上下文理解能力。这些方法的优点在于其灵活性和适应性,因为非结构化文本可以涵盖各种主题和领域。然而,由于缺乏全局和结构化的理解,这些方法在处理复杂查询时可能会遇到困难,例如在需要多跳推理或长文档理解的场景中。
与基于非结构化文本的方法不同,基于结构化实体图的 RAG 方法利用预先构建的实体图作为知识源。这些实体图通常包含丰富的语义信息,如实体之间的关系和属性。通过在实体图上进行检索,模型可以更有效地进行多跳推理和信息聚合,从而提供更深入的语义理解。然而,构建高质量的领域特定知识图通常需要大量的专家努力,并且难以扩展到新的领域或数据集。
刚才提到的,基于非结构化文本知识库的 RAG 方法易组织且适应性强,但缺乏对内容的全局和结构化理解。基于结构化实体图的 RAG 方法支持多跳推理和信息聚合,构建高质量领域知识图却需大量专家努力且难以扩展。
比如,GraphRAG 利用 LLM 构建知识图、聚类节点和总结社区形成多粒度知识图,但索引阶段因频繁调用 LLM 导致高昂成本和延迟,全局检索依赖 LLM 判断相关社区带来显著计算开销。在科技领域问答系统中,GraphRAG 因索引效率低难以及时更新知识库,无法快速响应用户查询。RAPTOR 构建层次摘要树却忽略文档原始语境流程,聚类耗时且传统向量检索易导致结果偏差。在金融领域风险评估报告分析中,RAPTOR 无法准确把握报告语境逻辑,出现检索结果偏差。LightRAG 和 FastGraphRAG 虽降低索引开销,但 LLM 输出格式不稳定导致实体和关系提取不准确。在医疗文献检索中,影响对医疗知识的准确检索和应用。LazyGraphRAG 因检索延迟高,无法满足实时新闻分析系统快速检索和生成新闻洞察的需求,导致响应迟缓,影响用户体验。
将文档分块,使用对应后续总结任务模型的分词器,划分为 1200 tokens 的块,相邻块间重叠 100 tokens,以减少句子分割导致的语义损失。分块后的文档结构为 。
递归合并和总结文本块构建层次树结构。每 g 个连续块组总结一次,采用最小化提示策略,因现代 LLM 在指令调优阶段已接受大量文本总结任务训练。使用预训练嵌入模型编码所有块和总结,利用 Faiss 存储向量实现高效密集检索。摘要树结构中,叶节点对应块,中间或根节点对应总结。节点越靠近根,信息越全局抽象;越靠近叶,信息越详细具体。以图表直观展示摘要树结构,区分不同信息层次。
具体算法步骤:
例如,在处理一本包含 100 个文本块的文档时,假设每 5 个块进行一次总结,那么第一层总结将生成 20 个总结块。若继续总结,每 5 个总结块再次总结,最终可能得到 4 个最高层次的总结块,形成一个层次分明的摘要树。
上图直观展示了索引阶段的四大核心任务:文档预处理、实体图提取、摘要树构建及两种索引的建立。可以看到,文档预处理后得到的块,经过实体抽取构建实体图,同时块通过递归总结形成摘要树,实体图与摘要树之间通过实体-块索引和块-实体索引建立联系。
利用 SpaCy 提取每个块中的命名实体和普通名词作为实体。将共现于同一句子中的实体间构建无向加权边,边权重计算公式为:w(e_i,e_j) = 共现次数 / 句子中实体总数。将块级子图合并为整个文档的图,统一相同实体并累加相同源目标实体对的边权重。构建实体到块和块到实体的索引,实现实体图与摘要树间的多对多映射,为后续检索提供便利。
例如,在一个新闻文档的处理中,某个文本块中提到 “公司 A 在 2024 年发布新产品 B,该产品采用新技术 C”,则通过 SpaCy 可提取出 “公司 A”“新产品 B”“新技术 C” 等实体,并根据它们在句子中的共现关系构建加权边。这些边的权重反映了实体之间的关联紧密程度,为后续检索提供了丰富的语义信息。
总结任务依赖 LLM 和 GPU,SpaCy 实体提取主要在 CPU 上运行,二者可并行执行。在多线程环境下,分别启动 LLM 总结任务和 SpaCy 实体提取任务,通过线程间通信机制协调进度,优化整体计算时间,降低索引阶段时间成本。
例如,在实际的服务器环境中,可以分配 4 个 CPU 核心用于 SpaCy 实体提取任务,同时利用 GPU 加速 LLM 的总结任务。通过合理调度,确保两个任务并行执行且互不干扰,从而将索引时间减少约 40%。
基于查询中实体在图中的连接密度动态选择局部检索和全局检索模式。查询实体在图中密集连接则局部检索,否则全局检索。这种机制通过建模实体间结构关系,避免手动预定义查询模式,提升检索灵活性和针对性。
以下是算法的伪代码,能够直观地展示检索阶段的逻辑流程,帮助大家更好地理解 E²GraphRAG 的检索机制
例如,在检索与 “人工智能” 和 “机器学习” 相关的信息时,通过图过滤步骤筛选出这两个实体在知识图谱中紧密相连的部分,如 “深度学习”“神经网络” 等相关实体对。然后利用索引映射获取包含这些实体的文本块,经过排名与格式化后,将相关信息以清晰的结构输入到 LLM 中,以便生成准确且全面的回答。
上图展示了检索阶段的完整流程,其中局部检索操作用浅黄色突出显示,包括实体提取、图过滤等关键步骤;全局检索操作则用浅绿色标识,清晰地区分了两种检索模式下的具体操作,有助于理解自适应检索策略的执行过程。
当查询中未识别出实体或实体对不满足条件时,采用密集检索方法在摘要树上进行全局检索。使用折叠树密集检索方法,利用索引阶段的嵌入模型编码查询,计算查询嵌入与索引嵌入的相似度,选择前 k 个最相关的块作为补充信息,并按相似度降序排列。具体算法如下:
为了全面评估 E²GraphRAG 在索引和检索效率以及问答效果方面的性能,通过与现有方法的对比,验证 E²GraphRAG 是否能够在保证效果的同时显著提升效率。实验设计涵盖多个评估指标和数据集,以确保结果的可靠性和普适性。
选择 Qwen2.5-7B-Instruct 和 Llama3.1-8B-Instruct 作为基础模型,因其在资源有限和数据隐私要求严格场景下适用。选择 BGE-M3 作为嵌入模型,因其性能出色。
使用 NovelQA 和 InfiniteBench(包括 InfiniteChoice 和 InfiniteQA)数据集。这些数据集文档平均包含约 200k tokens,适合评估方法在极长文档上的全局查询能力。NovelQA 包含 89 本书及 2305 个多项选择问题,涵盖 65 本公共领域书籍和 24 本购买的版权书籍。InfiniteChoice 包含 58 本书及 229 个多项选择问题,InfiniteQA 包含 20 本书及 102 个问题。例如,NovelQA 中的《哈利・波特与阿兹卡班的囚徒》相关文档,其语言风格为叙述性与对话性相结合,包含大量人物、事件等实体,对模型的实体关系捕捉和长文档处理能力提出了较高要求。
针对多项选择和封闭式 QA 任务分别采用准确率和 ROUGE-L 作为评估指标。为评估索引和检索阶段的系统效率,测量每本书的索引时间和每个查询的检索时间。
与 GraphRAG-Local、GraphRAG-Global、LightRAGHybrid 和 RAPTOR 对比。这些方法的选择依据是为了确保全面评估。部分方法因代码未公开或与本地部署模型不兼容,无法纳入实验。
E²GraphRAG 在 NovelQA 使用 Qwen 时取得最佳性能,在 InfiniteQA 跨两个基础模型均表现最佳。GraphRAG 的本地模式在效果上优于其他基线方法,但索引效率低。LightRAG 尽管试图平衡效果和效率,但因依赖 LLM 能力且在使用 Llama3.1 时表现不佳,效果仍不理想。
例如,在 NovelQA 数据集上,使用 Qwen 模型时,E²GraphRAG 的准确率达到 45.6%,相较于 GraphRAG 提升了约 5%。在 InfiniteQA 数据集上,E²GraphRAG 在两个基础模型上的 ROUGE-L 分数均达到 13.65 和 11.07,相较于其他方法有显著提升。
索引阶段,E²GraphRAG 的并行优化策略充分利用 LLM 和 SpaCy 的不同硬件资源,递归总结文本块的算法有效降低了信息冗余,显著提高了索引效率。检索阶段,自适应检索策略能够根据查询特征动态选择检索模式,避免了传统方法中固定检索模式带来的局限性。同时,实体图的构建和利用增强了检索结果的相关性和准确性,让模型能够更精准地捕捉实体间的语义关系。在不同数据集和模型中,E²GraphRAG 的优势体现在高效处理长文档和灵活应对复杂查询。
例如,在处理长文档时,E²GraphRAG 的摘要树能够快速定位到与查询相关的不同层次的信息块,而实体图则能有效关联这些信息块中的实体,为生成连贯且准确的回答提供有力支持。这种结合全局和局部信息的能力,使其在面对复杂查询时能够提供更全面和准确的答案。
上表展示了 E²GraphRAG 的消融研究结果。通过对比不同组件缺失情况下的模型性能,可以清晰地看出各个模块对整体效果的贡献。例如,当仅采用密集检索时,模型性能在多个数据集上均出现明显下降,表明自适应检索策略和相关组件对提升检索效果具有关键作用。这进一步验证了 E²GraphRAG 设计的合理性和各组件的有效性。
本文介绍了一种名为E²GraphRAG的改进型基于图的检索增强生成(RAG)框架,目标是为了解决现有图结构RAG方法在效率和灵活性上的不足。E²GraphRAG框架结合了树和图结构的优点,在索引阶段构建摘要树和实体图,并建立两者之间的双向索引;在检索阶段采用自适应检索策略,根据查询实体在图中的连接情况动态选择局部或全局检索模式。
在索引阶段,E²GraphRAG首先使用大型语言模型(LLM)递归地对文档片段进行总结,生成多粒度的摘要树。同时,利用SpaCy工具从每个片段中提取实体并构建实体图,并为每个片段构建子图,然后将所有片段级子图合并成一个图。此外,还构建了实体到片段和片段到实体的索引,以建立实体图和摘要树之间的多对多映射关系,便于后续检索过程中的查找。
在检索阶段,E²GraphRAG采用自适应检索策略。首先从查询中提取实体,并将它们映射到构建的图的顶点上。如果查询实体在图中密集连接,则执行局部检索;否则,回退到全局检索。这种自适应机制通过明确建模实体之间的结构关系,避免了繁琐的手动设置查询模式,提高了检索的灵活性和针对性。局部检索包括图过滤步骤,保留查询中语义相关的实体对,通过索引映射找到与这些实体对相关的片段集合,并进行进一步的筛选和排序。全局检索则在查询中没有实体或实体对不满足一定条件时执行,基于向量相似度从摘要树中检索候选片段,并根据实体出现的频率对它们进行排序和选择。
通过在NovelQA、InfiniteChoice和InfiniteQA等数据集上的实验,验证了E²GraphRAG在效率和效果上的优势。实验结果表明,E²GraphRAG在索引阶段比GraphRAG快10倍,比RAPTOR快约2倍;在检索阶段比LightRAG快100倍以上,比GraphRAG的局部模式快约10倍,同时保持了与GraphRAG相当的效果。在NovelQA数据集上,使用Qwen时E²GraphRAG取得了最佳性能;在InfiniteQA数据集上,两种基础模型均取得了最佳性能。
尽管E²GraphRAG在试验表现的效率和效果上取得了显著提升,但其检索设计仍然相对直观,可能存在更优的检索策略尚未被发现。此外,该模型对底层文档的质量和中立性高度依赖,若索引了有偏见或错误的数据,系统可能会产生误导性或有害的输出。自动实体提取和图构建也可能传播错误或忽视少数观点。总体而言,E²GraphRAG通过大幅降低索引和检索成本,为开放域问答、知识密集型NLP任务和长文档理解等下游应用提供了更高效和有效的解决方案,同时强调了在使用该框架时应与可信的数据源和人类监督结合,以确保其负责任地使用。未来的工作可以探索去偏方法和提高检索路径的透明度。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-04
RAG 应用进阶指南:别再“一次性”加载了!教你构建可分离、可维护的动态 AI 知识库
2025-08-04
学习 RAGFlow 知识库高级配置
2025-08-04
Agentic Workflow——RAGFlow 0.20.0 特性预览
2025-08-04
RAG的五种分块策略
2025-08-03
关于RAG检索增强的右侧优化方案——企业级应用中怎么提升RAG的检索准确度
2025-08-03
在RAG中文档处理质量参差不齐的情况下——提升召回精度的企业级解决方案
2025-08-03
再学 RAGFlow 的文件解析逻辑
2025-08-03
AWS使用提示词与RAG来减少大模型幻觉
2025-05-30
2025-06-06
2025-06-05
2025-05-19
2025-05-08
2025-05-10
2025-06-05
2025-05-20
2025-06-05
2025-05-09
2025-07-28
2025-07-09
2025-07-04
2025-07-01
2025-07-01
2025-07-01
2025-07-01
2025-06-30