微信扫码
添加专属顾问
我要投稿
用开源技术打造能理解文档的智能问答系统,解决海量文档检索与语义理解的痛点。核心内容: 1. 传统全文搜索与AI问答的优缺点对比 2. RAG技术原理与开卷考试比喻解析 3. 基于Python+Flask的三层架构实战方案
从零开始,用开源技术搭建一个能"读懂"文档的智能问答系统
大家好,我是铭毅天下。今天给大家分享一个非常实用的项目——Everything plus RAG 智能文档问答系统。
相信大家的电脑上都安装了 Everything,一个磁盘文件快速查找桌面级应用软件。
一直以来,我都有个想法,能否做一个 plus 版本,支持文档的全文检索和智能问答?!这个想法萌芽已久,且和同事、朋友做过多次讨论。
近期,终于腾出空来,把它实现了。
直接上效果视频。
这个系统解决了我们工作中一个常见的痛点——如何从海量文档中快速找到最准确答案?
先说说我遇到的问题。作为技术人,手头总有大量的文档:
传统的解决方案有两种:
方案一:全文搜索(如 Elasticsearch、国产化Easysearch 等)
优点:速度快,能精确匹配关键词
缺点:不理解语义,搜"如何启动"找不到"怎么运行"
方案二:直接问 ChatGPT、Claude、DeepSeek、豆包等 AI 工具
优点:理解能力强,回答自然
缺点:容易"胡说八道",给出的答案可能根本不在你的文档里
那么,能不能结合两者的优点,既快速检索又智能理解,还能保证答案可靠呢?
答案是:
可以!
这就是我今天要分享的 RAG(检索增强生成) 技术。
RAG 不是新技术,咱们之前的文章有过多次分享,详见如下:
基于 Qwen2.5-14B + Elasticsearch RAG 的大数据知识库智能问答系统
【视频】基于大模型 与 Elasticsearch 的知识库智能问答 RAG 系统
【视频】有道云笔记增强 RAG 检索 + 智能 AI 助手实战
建议先看完再看后续的内容会更好理解。
把 RAG 想象成一场"开卷考试":
传统 AI(闭卷考试)
学生(AI): 凭记忆答题
问题: 可能记错、编造答案
RAG(开卷考试)
学生(AI): 先翻书找相关内容,再基于书本回答
优势: 答案有据可查,准确可靠
RAG 的核心流程只有三步:
简单吧!但要做好,还有很多技术细节。
Everything plus 采用经典的三层架构:
技术栈选型原则:全部开源,零成本部署
单纯用关键词检索或向量检索都有局限:
| BM25关键词 | |||
| 向量语义 |
解决方案:混合检索 = BM25 + 向量检索
举个例子:
问题: "如何配置数据库连接?"
BM25 检索结果:
- 文档A: "配置数据库连接的方法..." (精确匹配)
- 文档B: "database connection config" (英文匹配)
向量检索结果:
- 文档C: "设置 MySQL 链接参数..." (语义相似)
- 文档D: "数据库初始化步骤..." (相关内容)
融合后: A(最相关) > C > B > D
两种检索结果如何合并?这里用到 RRF(倒数排名融合) 算法:
# 核心公式
RRF_score = 1/(k + rank1) + 1/(k + rank2)
# 例子
文档A: rank1=1, rank2=3
score = 1/(60+1) + 1/(60+3) = 0.0164 + 0.0159 = 0.0323
文档B: rank1=5, rank2=1
score = 1/(60+5) + 1/(60+1) = 0.0154 + 0.0164 = 0.0318
关键思想:同时出现在两个结果列表中的文档,得分会更高
用户的问题往往很简短,直接检索效果不好。系统会自动生成多个查询变体:
原始查询: "系统怎么用"
自动重写为:
1. "系统怎么用 详细说明"
2. "什么是 系统怎么用"
3. "系统怎么用 步骤"
# 每个变体都去检索,结果再融合
# 这样可以找到更多相关文档
RAG 的关键是让 AI 只基于检索到的内容回答:
prompt = f"""
你是一个文档问答助手。请严格基于以下上下文回答问题:
【上下文】
[块1] {doc1_content}
[块2] {doc2_content}
[块3] {doc3_content}
【规则】
1. 只能使用上述上下文中的信息
2. 如果上下文中没有答案,明确说"文档中未找到相关信息"
3. 引用时注明来源,如"根据[块1]..."
【问题】{user_question}
【回答】
"""
这样设计的提示词,能有效防止 AI "胡编乱造"。
这是系统的一大亮点!你可以直接扫描本地磁盘,自动索引文档:
首次扫描是全量的,但后续扫描会智能判断:
首次扫描是全量的,但后续扫描会智能判断:
# 判断文件是否需要重新索引
if file.mtime > last_index_time:
# 文件被修改过,重新索引
re_index(file)
else:
# 文件未变化,跳过
skip(file)
这样即使扫描大量文件,也不会重复处理,效率很高。
文档类: TXT, MD, PDF, DOCX, XLSX, PPTX
代码类: PY, JS, JAVA, CPP, GO, PHP, TS, RS
配置类: JSON, YAML, XML, INI, CONF, ENV
网页类: HTML, CSS, SCSS
脚本类: SH, BAT, PS1
基本涵盖了日常工作中的所有文本文件。
# 1. 安装 Python 依赖
pip install -r requirements.txt
# 2. 启动 Elasticsearch/Easysearch
系统用了 Elasticsearch 9.0 版本。
Easysearch 2.0 等版本原理一致。
# 3. 安装 MySQL
# (根据你的系统安装 MySQL 5.7+)
# 4. 初始化数据库
python init_database.py
python app.py
访问 http://localhost:16666,注册账号登录。
方式一:上传文档
方式二:扫描磁盘
问题: "如何配置 Elasticsearch 连接?"
系统返回:
【答案】
根据[块1]和[块3],Elasticsearch 连接配置如下:
1. 在 config.py 中设置连接参数:
- ES_HOST: Elasticsearch 服务器地址
- ES_PORT: 端口号(默认9200)
- ES_USER: 用户名
- ES_PASSWORD: 密码
2. 初始化客户端:
es = Elasticsearch(
hosts=[{'host': ES_HOST, 'port': ES_PORT}],
basic_auth=(ES_USER, ES_PASSWORD)
)
【证据来源】
[块1] 文档: config_guide.md, 第2段
[块3] 文档: setup.md, 第5段
【相关文档】(3个)
- config_guide.md
- setup.md
- troubleshooting.md
_msearch API_bulk API,100条一批# 批量生成向量,而不是逐个生成
texts = [chunk1, chunk2, ..., chunk100]
vectors = model.encode(texts, batch_size=32)
# 比逐个生成快10倍以上
问题: Elasticsearch 索引的向量维度与模型不一致
# 错误
mapping = {
"vector": {"type": "dense_vector", "dims": 512} # 但模型是384维
}
# 正确:先确认模型维度
model = SentenceTransformer('all-MiniLM-L6-v2')
print(model.get_sentence_embedding_dimension()) # 384
mapping = {
"vector": {"type": "dense_vector", "dims": 384} # 与模型一致
}
问题: PDF 中的中文提取出来全是乱码
解决: 使用 pdfplumber 代替 PyPDF2
# pdfplumber 对中文支持更好
import pdfplumber
with pdfplumber.open(pdf_path) as pdf:
text = ""
for page in pdf.pages:
text += page.extract_text()
问题: 长文档切分成小块后,检索只能找到片段,缺乏上下文
解决: 使用重叠切分
from langchain.text_splitter import RecursiveCharacterTextSplitter
splitter = RecursiveCharacterTextSplitter(
chunk_size=500, # 每块500字符
chunk_overlap=50, # 重叠50字符,保留上下文
length_function=len
)unset
Everything plus 展示了如何用开源技术构建一个生产级的 RAG 系统。它不是最先进的,但是最实用、最接地气的。
重要的不是技术有多酷,而是能不能解决实际问题。如果这个系统能让你从"找文档"的痛苦中解脱出来,那就值了。
更短时间更快习得更多干货!
和全球 2100+ Elastic 爱好者一起精进!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-01-02
LEANN:200GB 压到 6GB,笔记本跑 RAG 不是梦
2026-01-02
如何用NotebookLM,把枯燥的财报解读成精美的PPT?
2026-01-01
这次,RAG记忆被微信AI团队的超图盘活了
2026-01-01
企业级 RAG + 知识图谱的4 种主流实现路径
2025-12-31
企业RAG知识库系统中关于向量数据库的对比选型指南
2025-12-31
EdgeVec:浏览器原生向量数据库,让AI应用彻底摆脱服务器
2025-12-29
Claude Code 外挂最强大脑 NotebookLM Skill
2025-12-28
先RAG后KG,还是先KG后RAG?我们试了三种策略
2025-10-11
2025-10-12
2025-12-04
2025-11-04
2025-10-31
2025-12-03
2025-11-13
2025-10-12
2025-10-16
2025-10-16
2026-01-02
2025-12-23
2025-12-21
2025-12-10
2025-11-23
2025-11-20
2025-11-19
2025-11-04