微信扫码
添加专属顾问
我要投稿
腾讯开源知识库WeKnora本地实战指南,手把手教你打造私有智能问答系统,从零到一完整跑通!核心内容: 1. 本地Ollama环境配置与模型拉取 2. 知识库创建与初始化设置详解 3. RAG核心配置及智能问答验证全流程
上次我们聊了怎么在本地部署 WeKnora 环境。
这次咱们来点“真刀真枪”的操作——创建知识库 + 配置模型 + 上传文件 + 智能问答验证,
完整地跑通一个属于你自己的「私有知识问答系统」。
如果说上一篇是“铺地砖”,那这篇就是“装修落地”。
搞定它之后,你的知识库就能真正动起来,问问题、给答案,一气呵成!
01
———
准备工作:先把 Ollama 启动起来
WeKnora 虽然支持远程 API 模型,但最推荐的还是用 本地 Ollama,
这样整个流程都是离线可控的。
先确认你的 Ollama 已经安装并在运行:
docker ps | grep ollama
如果没启动,请运行:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
然后拉取需要的 embedding 模型:
ollama pull bge-m3
💡 说明:
bge-m3是腾讯官方推荐的嵌入模型,性能稳、兼容性好;后面知识库创建时会默认使用它来做文本向量化。
02
———
创建知识库:点击几下就能搞定
打开浏览器,访问:
http://localhost##如果你加了端口号,也需要带上
进入 WeKnora 的主界面后,左侧点击 「知识库」 模块。
点击右上角的 「新建知识库」 按钮,就会弹出创建窗口👇
填写信息:
名称:随便取,比如「微信公众号文章库」;
描述:可选;
直接点「创建」。
创建完成后你会看到一个“未初始化”的状态。
别急,这时候还不能上传文件——
系统提示:需要先完成模型配置。
03
———
配置知识库:RAG的灵魂部分
点击右侧的 「设置」 按钮,进入配置界面。
这一页其实就是整个知识库的“大脑”设置区:
包括语言模型、embedding 模型、Rerank、多模态、分段策略等。
顶部显示 Ollama 服务状态:
Ollama 地址:http://host.docker.internal:11434
状态:已安装模型 bge-m3latest
如果状态正常,说明本地模型可用。
在「LLM 模型配置」部分选择:
模型来源:Ollama(本地)、Remote API(远程)
模型名称:这里我选的是远程的DeepSeek
如果用deepseek的话,需要到其官网上创建一个API Key。
📢 说明:
本地没有部署LLM,只能用远程的LLM了。这里选的是deepseek。
如果你显存够大(24G 以上),可以直接用多模态模型 Qwen2.5VL:7b,支持图文混合问答。
在「Embedding 嵌入模型配置」部分:
模型来源:Ollama
模型名称:bge-m3
维度:自动检测即可
这个模型负责把你的文档分段转成向量,是检索精准度的关键。
WeKnora 支持自定义修改,比如你也可以改用 text2vec-large-chinese。
Rerank 负责“二次筛选”检索结果。
关闭「启用Rerank重排模型」开关即可。
只用 Embedding(你已经配了 bge-m3 1024)+ LLM,检索问答一样能用。
如果想提高答案准确率的话,可以开启,但回答速度会变慢。
启用方法:
打开「Rerank 重排序模型配置」
模型名称:rerank-multilingual-v3.0(支持中文多语)
Base URL:https://api.cohere.com
API Key:你的 Cohere Key
⚙️ 建议:如果你只是测试环境,可以先不启用。生产环境建议开,答案准确率会明显提升。
如果你希望解析图片内容(比如PDF里有图表),可以打开:
「多模态配置」→ 勾选“启用多模态图片信息提取”
还需要配置存储,可以用MinIO,使用方便简单。
⚠️ 注意:多模态模型对显存要求高,至少要 24G 以上,推荐配置
Qwen2.5VL:7b。本人电脑显存太小,下载完模型,就直接死机了:(
WeKnora 的分段逻辑非常灵活,有三种模式可选:
你也可以手动拖动滑块调整分块大小和重叠度,
最后点击底部的 「更新知识库设置」 保存配置。
保存成功后,状态就会变成 “已初始化” 🎉
这时我们就能往里扔文档了。
04
———
上传文档:喂知识进去!
返回知识库列表,点你刚建好的那个知识库 → 「文档」。
直接拖拽文件上传,支持:
PDF/Word/Markdown/ 图片(会自动OCR识别)
上传后,系统会自动执行以下步骤:
文本提取(包含OCR识别)
分段切片
向量化处理(Embedding)
构建索引
状态变成 ✅「已完成」时,说明入库成功。
05
———
智能问答测试:让知识动起来
切换到左侧菜单的「对话」模块。
选择刚刚建的知识库,在输入框随便问一句:
“微信公众号知识库里,如何配置 embedding 模型?”
“AI 智能体知识库的文件存放在哪个路径?”
WeKnora 会自动从文档里检索相关段落,然后用 LLM 生成总结。
右侧还能看到引用来源,非常清晰。
06
———
实战技巧(让问答更精准)
💡 1. 分段别太大
建议每块 500~1000 字,这样召回更准确。
💡 2. 文件命名清晰
比如 “01_安装指南.pdf”“02_配置文档.docx”,
后续引用来源更容易识别。
💡 3. 合理选模型组合
推荐组合:
中文文档 → Qwen + bge-m3 + Rerank
英文文档 → Mistral + text2vec-large
💡 4. 多模态别乱开
显存不够千万别勉强,否则直接 OOM(爆显存)。
07
———
总结:这才是真正的“可控知识库”
到这一步,你已经拥有了一个完整可用的本地知识库系统:
✅ 本地 Ollama + Embedding + Rerank
✅ 知识库初始化配置
✅ 文档入库
✅ 精准问答
最重要的是——数据全在你自己手上。
不联网、不上传、不依赖外部API,一切尽在掌控。
WeKnora = “可折腾版 IMA”
IMA 是黑盒,而 WeKnora 是乐高。
想怎么玩,随你拼。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-22
2025-11-19
2025-11-08
2025-10-25
2025-11-11
2025-10-14
2025-11-08
2025-11-13
2025-11-18
2025-10-18
2025-12-09
2025-11-22
2025-11-18
2025-11-13
2025-11-12
2025-09-23
2025-09-07
2025-08-30