微信扫码
添加专属顾问
我要投稿
探索长篇文档检索的新纪元,如何通过推理提升RAG系统性能。 核心内容: 1. RAG系统向量数据库检索的局限性和挑战 2. PageIndex的创新点:基于树搜索的文档索引系统 3. PageIndex的实际应用和使用方法步骤
你是否对长篇专业文档的向量数据库检索准确性感到失望传统的基于向量的RAG系统依赖于语义相似性而非真正的相关性。但在检索中,我们真正需要的是相关性——这需要推理能力。当处理需要领域专业知识和多步推理的专业文档时,相似度搜索常常不尽人意。
基于推理的RAG提供了更好的选择:让大语言模型能够思考和推理,找到最相关的文档部分。受AlphaGo启发,Vectify AI提出使用树搜索来执行结构化文档检索。
PageIndex是一个文档索引系统,它从长文档构建搜索树结构,为基于推理的RAG做好准备。
由Vectify AI开发。
PageIndex能将冗长的PDF文档转换为语义树结构,类似于*"目录"*但专为大语言模型(LLMs)优化。 它特别适用于:财务报告、监管文件、学术教科书、法律或技术手册,以及任何超出LLM上下文限制的文档。
层次树结构
让大语言模型能够逻辑性地遍历文档——就像一个智能的、为LLM优化的目录。
精确页面引用
每个节点都包含其摘要和开始/结束页面的物理索引,实现精准检索。
无需人为分块
不使用任意分块。节点遵循文档的自然结构。
适用于大规模文档
设计用于轻松处理数百甚至上千页的文档。
以下是输出示例。查看更多示例文档和生成的树结构。
...
{
"title": "金融稳定性",
"node_id": "0006",
"start_index": 21,
"end_index": 22,
"summary": "美联储...",
"nodes": [
{
"title": "监测金融脆弱性",
"node_id": "0007",
"start_index": 22,
"end_index": 28,
"summary": "美联储的监测..."
},
{
"title": "国内和国际合作与协调",
"node_id": "0008",
"start_index": 28,
"end_index": 31,
"summary": "2023年,美联储与..."
}
]
}
...
其实看到这里,我们会发现RAG之前很多框架或者算法都有类似的思想:
那PageIndex的亮点在哪里呢,其实在最后一部分“使用PageIndex进行基于推理的RAG”的实现,相比之前的Advanced和Modular RAG,Agentic RAG更加智能,接着我们往下看怎么实现的
按照以下步骤从PDF文档生成PageIndex树结构。
pip3 install -r requirements.txt
在根目录创建一个.env
文件并添加你的API密钥:
CHATGPT_API_KEY=你的openai密钥
python3 run_pageindex.py --pdf_path /path/to/your/document.pdf
你可以通过额外的可选参数自定义处理过程:
--model 使用的OpenAI模型 (默认: gpt-4o-2024-11-20)
--toc-check-pages 检查目录的页数 (默认: 20)
--max-pages-per-node 每个节点的最大页数 (默认: 10)
--max-tokens-per-node 每个节点的最大token数 (默认: 20000)
--if-add-node-id 添加节点ID (yes/no, 默认: yes)
--if-add-node-summary 添加节点摘要 (yes/no, 默认: no)
--if-add-doc-description 添加文档描述 (yes/no, 默认: yes)
不想自己部署试试Vectify AI的PageIndex托管API。托管版本使用Vectify AI自定义的OCR模型更准确地识别PDF,为复杂文档提供更好的树结构。 在这个表单留下你的邮箱,免费获得1,000页处理额度。
Mafin 2.5是一个专为财务文档分析设计的最先进基于推理的RAG模型。它基于PageIndex构建,在FinanceBench基准测试中达到了惊人的98.7%准确率——显著优于传统的基于向量的RAG系统。
PageIndex的分层索引使得能够精确导航和提取复杂财务报告(如SEC文件和财报披露)中的相关内容。
? 查看完整基准测试结果,了解详细比较和性能指标。
使用PageIndex构建基于推理的检索系统,无需依赖语义相似度。非常适合需要细微区分的领域特定任务。
prompt = f"""
给你一个问题和一个文档的树结构。
你需要找出所有可能包含答案的节点。
问题: {question}
文档树结构: {structure}
请用以下JSON格式回复:
{{
"thinking": <关于在哪里寻找的推理过程>,
"node_list": [node_id1, node_id2, ...]
}}
"""
看到合理我们自然明白了,PageIndex不需要切块向量是因为通过将文档转换为节点,然后用大模型进行选择,之前RAG是检索+排序=现在的LLM Judge。
同时这个问题就是,当多文档或者文档篇幅比较多的时候,LLM去做选择成本比较高的。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-30
HiRAG:基于层级知识索引和检索的高精度RAG
2025-04-29
教程|通义Qwen 3 +Milvus,混合推理模型才是优化RAG成本的最佳范式
2025-04-29
RAG开发框架LangChain与LlamaIndex对比解析:谁更适合你的AI应用?
2025-04-29
RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升
2025-04-29
超神了,ChatWiki 支持GraphRAG,让 AI 具备垂直深度推理能力!
2025-04-29
AI 产品思维:我如何把一个 AI 应用从基础 RAG 升级到 multi-agent 架构
2025-04-29
做好 AI Agent 最重要的是什么?
2025-04-29
颠覆传统RAG,创新大模型检索增强—Insight-RAG
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-29
2025-04-29
2025-04-26
2025-04-25
2025-04-22
2025-04-22
2025-04-20
2025-04-19