微信扫码
添加专属顾问
我要投稿
深入探索文档解析技术,掌握从文件加载到结构化处理的全流程。 核心内容: 1. 文档解析基本概念与步骤详解 2. 技术难点解析:OCR处理扫描件与复杂表格 3. 实操案例:使用llama-index解析器处理文档
https://docs.llamaindex.ai/en/stable/examples/data_connectors/simple_directory_reader/
文档解析方案
什么是文档解析?
就像把不同文档做不同的处理:PDF文件 → 专用工具打开Word文档 → 文本处理,可能包含复杂的表格或者格式扫描件/图片 → ocr
分步详解:
1. 文件加载:找到文档存放位置,就像在电脑文件夹中定位文件常见问题:文件损坏 → 检查文件是否能正常打开2. 格式转换:统一转为纯文本,就像把不同货币兑换成美元示例:将PDF中的表格转为Markdown格式3. 元数据提取:获取文档信息标签,就像查看食品包装上的生产日期包括:作者、创建时间、文档类型等4. 结构化处理:整理内容层次,就像把食材分类放入保鲜盒建立标题层级:章节 > 段落 > 句子
处理扫描件:1. 使用OCR(光学字符识别)技术识别文字2. 校正识别错误(如将"3"识别为"B")3. 保留原始版式信息
处理复杂表格:# 表格解析结果示例| 姓名 | 年龄 | 职业 ||--------|------|------------|| 张三 | 28 | 工程师 || 李四 | 35 | 设计师 |
#解析html
from llama_index.readers.file import HTMLTagReader
reader = HTMLTagReader(tag="section", ignore_no_id=True)
docs = reader.load_data(
"/home/cw/projects/demo_20/V8W9yJZ/index.html"
)
for doc in docs:
print(doc.metadata)
print(docs)
llama-index解析器只适用于简单的文本解析,如果有复杂格式或者表格或者图片等格式,使用第三方库解析
from llama_index.core import SimpleDirectoryReader
reader = SimpleDirectoryReader(
input_files=["/home/cw/projects/demo_17/data/README_zh-CN.md"]
)
# reader = SimpleDirectoryReader(
# "/home/cw/projects/demo_20/data"
# )
docs = reader.load_data()
print(f"Loaded {len(docs)} docs")
print(docs)
# # 案例2:高级解析
# import pdfplumber
# with pdfplumber.open("/home/cw/projects/demo_20/data/report_with_table.pdf") as pdf:
# # 提取所有文本
# text = ""
# for page in pdf.pages:
# text += page.extract_text()
# print(text[:200]) # 打印前200字符
# # 提取表格(自动检测)
# for page in pdf.pages:
# tables = page.extract_tables()
# for table in tables:
# print("\n表格内容:")
# for row in table:
# print(row)
文本切分方案
为什么需要分块?
就像用收纳盒整理衣物:太大 → 找衣服时要把整个箱子倒出来太小 → 需要开太多盒子才能凑齐一套
分块三要素:
分块策略对比表:
分块常见问题:
问题1:如何确定最佳块大小?
→ 测试不同尺寸查看检索效果
# 测试块大小对召回率的影响sizes = [128, 256, 512]for size in sizes:test_recall = evaluate_chunk_size(size)print(f"块大小{size} → 召回率{test_recall:.2f}%")
问题2:分块重叠是否越多越好?
→ 适当重叠(10-20%)可防止信息断裂,但过多会导致冗余
# 案例1:固定分块from llama_index.core.node_parser import TokenTextSplitterfixed_splitter = TokenTextSplitter(chunk_size=200, chunk_overlap=20)fixed_nodes = fixed_splitter.get_nodes_from_documents(docs)print("固定分块示例:", [len(n.text) for n in fixed_nodes[:3]]) # 输出:[200, 200,200]# 案例2:语义分块from llama_index.core.node_parser import SemanticSplitterNodeParserfrom llama_index.embeddings.huggingface import HuggingFaceEmbeddingsemantic_splitter = SemanticSplitterNodeParser(buffer_size=1,embed_model=HuggingFaceEmbedding("BAAI/bge-small"))semantic_nodes = semantic_splitter.get_nodes_from_documents(docs)print("语义分块示例:", [len(n.text) for n in semantic_nodes[:3]]) # 输出:[183,217, 195]
chunk_size:指token的数量实际项目中:按业务逻辑分,代码能划分使用代码分,如果代码分不了,只能人工标记
召回率提升方案
什么是召回率?检索结果的评估,涉及文档查询阶段
就像捕鱼网的网眼大小:网眼太大 → 漏掉小鱼(低召回率)网眼太小 → 捞到垃圾(低准确率)
提升召回率的三大策略:
1. 查询扩展:给问题加"修饰词"
原始问题:"如何做番茄炒蛋"扩展后:"家常番茄炒蛋做法步骤 厨房新手教程 简单易学"
2. 混合检索:结合两种搜索方式
会增加检索时间
用户问题关键词搜索语义搜索初步结果合并去重
3. 向量优化:让AI更懂专业术语
微调前:"Transformer" → 理解为"变形金刚"微调后:"Transformer" → 识别为"深度学习模型"
效果验证方法:
1. 准备测试问题集(至少50个典型问题)2. 记录基础方案召回率3. 应用优化策略后再次测试4. 对比提升幅度
# 案例1:向量检索from llama_index.core import VectorStoreIndexvector_index = VectorStoreIndex(nodes)vector_retriever = vector_index.as_retriever(similarity_top_k=3)print("向量检索结果:", [node.text[:30] for node invector_retriever.retrieve(query)])# 案例2:混合检索from llama_index.core import KeywordTableIndexkeyword_retriever = KeywordTableIndex(nodes).as_retriever(retriever_mode="bm25",similarity_top_k=3)from llama_index.core.retrievers import QueryFusionRetrieverfusion_retriever = QueryFusionRetriever([vector_retriever, keyword_retriever])print("混合检索结果:", [node.text[:30] for node infusion_retriever.retrieve(query)])
检索结果重排序
为什么要重排序?
就像面试筛选简历:1. 初筛:快速浏览100份简历(初步检索)2. 精筛:详细评估前20份(重排序)3. 终选:确定3位候选人(最终结果)
重排序工作流程:
常见排序模型对比:
无排序 vs Cohere Reranker
# 初始检索结果(按相似度排序):results = ["模型正则化方法简述", # 相关度0.7"硬件加速技术进展", # 相关度0.65"过拟合解决方案详解", # 相关度0.92 ← 正确答案"数据集清洗方法"]# 应用重排序from llama_index.postprocessor.cohere_rerank import CohereRerankreranker = CohereRerank(api_key="YOUR_KEY", top_n=2)reranked_results = reranker.postprocess_nodes(results, query_str=query)print("重排序后结果:", [res.text for res in reranked_results])
排序变化对比:
原始排序:1. 模型正则化方法简述(相关度0.7)2. 硬件加速技术进展(相关度0.65)3. 过拟合解决方案详解(相关度0.92)← 正确答案4. 数据集清洗方法重排序后:1. 过拟合解决方案详解(评分0.95)← 正确答案2. 模型正则化方法简述(评分0.88)
索引阶段:解析、切分检索阶段:召回率、重排序
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-27
Dify、n8n、Coze、Fastgpt、Ragflow到底该怎么选?超详细指南~
2025-04-22
LlamaIndex入门指南和RAG原理
2025-04-03
TypeScript版LlamaIndex来袭!用Agentic RAG构建智能AI代理,效率与隐私双提升!
2025-03-25
解锁 llamaindex agentworkflow 的潜力:有效多代理编排的 5 个关键策略
2025-02-25
首发完整版教程,MCP 集成至 LlamaIndex 的技术实践
2025-01-11
LlamaIndex :企业级知识助理,万物可知
2024-12-26
深入了解 LlamaIndex 工作流程:事件驱动的 LLM 架构
2024-12-23
LlamaIndex工作流详解:提升数据处理效率的关键
2024-07-09
2024-04-20
2024-04-25
2024-04-28
2024-05-09
2024-06-05
2024-06-19
2024-04-26
2024-07-20
2024-04-19