支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


GraphRAG变种这么多,该采用哪种?九大GraphRAG评估参考

发布日期:2025-06-12 20:03:30 浏览次数: 1547
作者:大模型自然语言处理

微信搜一搜,关注“大模型自然语言处理”

推荐语

GraphRAG变种大比拼:九大方案性能横评,助你精准选择适合多跳推理场景的解决方案。

核心内容:
1. 九大GraphRAG方案在五种问题类型上的性能对比
2. 评估指标详解:从图构建到推理过程的全方位测评
3. 实验结论揭示GraphRAG在多跳推理任务中的显著优势

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

系统的评估总是有趣的,在前文,我们通过一个类似的benchmark得出结论:GraphRAG在需要多跳推理和上下文综合的任务中表现优异,但在简单事实检索任务中不如传统RAG。见《什么时候用GraphRAG?RAG VS GraphRAG综合分析》

本文,再来看一个评估工作,同样是一个GraphRAG-bench,也再次通过评估得出GraphRAG适合多跳推理场景,并且系统的评估了九大GraphRAG(RAPTOR、LightRAG、GraphRAG、G-Retriever、HippoRAG、GFM-RAG、DALK、KGP和ToG)在这个benchmark上的性能,供参考。

评估设计

数据来源:从超过100本出版物中,系统地挑选出最具代表性的20本计算机科学领域的教科书。

数据处理:其实就是文档解析,前面《文档智能》专栏也介绍了很多,包含:预处理、内容解析、后处理和层次结构构建。预处理阶段包括PDF分类和元数据提取;内容解析阶段使用LayoutLMv3进行布局分析、公式识别和OCR;后处理阶段使用MinerU重新排序和合并页面区域;层次结构构建阶段将提取的内容组织成层次化的教科书树结构

评估问题设计:定义了五种类型的问题,每种类型都针对GraphRAG的不同推理能力。如下表,GraphRAG-bench评估问题类型的描述

问题类型
描述
填空题(FB)
要求用语义精确的术语完成上下文相关的陈述。这些题目评估模型利用局部语义依赖和图结构知识中的实体定位,生成上下文连贯内容的能力。
多选题(MC)
提供一个问题及4个选项,包括语言上合理的干扰项。这些题目评估模型通过区分性推理识别正确答案的能力,整合实体信息和边关系以排除语义相似但事实错误的选项。
多选答题(MS)
要求从4个选项中选择2-4个正确答案,通常需要对相互关联的概念进行推理。包含重叠干扰项的设置测试模型处理复杂查询语义的能力,从多跳图路径中聚合证据,并解决相关但非必要属性之间的冲突。
判断题(TF)
涉及验证陈述的正确性。这些题目衡量模型的事实准确性评估能力,要求对知识进行逻辑推理。
开放式问题(OE)
开放式问题允许广泛的回答,要求方法生成详细且全面的答案。这些题目评估模型的整体知识综合能力,要求整合多学科知识以生成结构化、逻辑连贯的长篇回答。

评估指标:涵盖图构建、知识检索、答案生成和推理过程的评价。图构建评估包括效率、成本和组织性;知识检索评估包括索引时间和平均检索时间;生成评估引入了新的Accuracy指标,考虑语义对齐和正确性;推理评估通过LLM对生成的理由进行评分,评估其逻辑一致性。

实验与结论

  • GraphRAG在大多数任务中显著提升了LLM的推理能力。例如,在开放性问题(OE)上,GraphRAG的平均准确率达到了52.42%,而基线模型GPT-4o-mini仅为52.23%。在多跳推理任务中,GraphRAG方法如RAPTOR和HippoRAG表现尤为突出,分别在准确率和推理分数上取得了73.58%和45.53%的成绩。

  • 在数学领域,GraphRAG方法的表现有所下降,这主要是因为数学问题需要严格的符号操作和精确的推理链,而GraphRAG检索到的信息往往与问题要求不完全匹配,导致信息提取和转换中的歧义或关键步骤丢失。

  • 在伦理领域,GraphRAG和LLM本身的表现均较为一般,原因是伦理问题涉及主观价值判断,LLM通过统计学习捕获的符号表示难以准确建模这些模糊的伦理概念。

图构建过程的比较
知识检索过程比较
生成过程的比较
推理能力比较

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询