支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


基于MaxKB部署本地知识库问答系统

发布日期:2025-05-05 11:56:19 浏览次数: 1555 作者:测试开发小涛
推荐语

掌握MaxKB,打造企业专属的知识库问答系统。

核心内容:
1. MaxKB在企业知识管理中的重要性与应用场景
2. MaxKB核心功能介绍与技术优势分析
3. 详细步骤指导:从系统要求到在线快速部署

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家



01

背景

随着 DeepSeek 的迅速崛起,人工智能的浪潮达到了前所未有的高潮。为了提升企业的运营效率,越来越多的公司开始部署专属的知识库问答系统。这类系统不仅能够显著提高工作效率,还能有效地整合和利用企业内部的知识资源。


但是,市面上现有的开源大模型在企业落地时面临很多挑战。首先,企业的文档和信息往往涉及敏感和私密的数据,因此在本地部署一个私有化的知识库问答系统成为了众多企业的首选解决方案。那么今天,小涛将为大家介绍如何基于 MaxKB 在本地搭建一个高效的知识库问答系统,以满足企业自身特定的需求。


02


MaxKB介绍


1. MaxKB介绍

MaxKB全称是Max Knowledge brain,是一款强大的AI助手,功能支持RAG检索增强、工作流编排、MCP工具调用能力。并且它支持对接各种主流大模型,主要应用于智能客服、企业内部知识库问答等场景。


MaxKB底层使用的是Embedding模型和LLM模型都是开源免费,可能很多小伙伴并不知道这两款模型是做什么用的,给大家简略介绍一下:


Embedding模型

  • Embedding 模型的主要功能是将输入数据(比如文本或图像)转换成数值向量。这些向量能够捕捉数据的特征和属性。以文本为例,文本 Embedding 就是把文字信息转化为数值形式,这些数值能够反映文本的语义和含义。简单来说,Embedding 帮助计算机理解和处理文本内容。

LLM模型:
  • LLM 模型,也就是大语言模型,是一种经过大量数据预训练的超大型深度学习模型。它的核心是由一组神经网络组成,这些网络有自己的注意力机制,能够帮助它理解文本。具体来说,模型的编码器和解码器会从一段段文字中提取出含义,理解句子之间的关系。简单来说,LLM 模型让计算机能够更好地理解和生成自然语言。

2. MaxKB优势

  • RAG检索增强生成
    • 所谓RAG指的是对大语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库,从而进行更加准确的回复
    • 支持直接上传文档以及自动爬取在线文档
    • 自动拆分文档,进行向量化,能够提升问答效果

  • 快速接入
    • 支持嵌入第三方web系统,快速接入企业微信、钉钉、飞书等应用。

  • 灵活编排
    • 灵活的编排AI的工作流
    • 支持MCP工具调用

  • 安全性高:
    • 可以完全私有化地部署在企业内部


03


 安装步骤

1. 系统要求  

  • 操作系统:Linux(Ubuntu 22.04 / CentOS 7.6 64 位系统)或windows系统
  • CPU/内存:4C/8GB以上
  • 磁盘空间:100GB

2. 官方部署文档

  • MaxKB部署文档:https://maxkb.cn/docs/installation/online_installtion/

3. 在线快速部署

3.1 创建容器

备注:我自己使用的windows10,在windows部署前提需要安装docker,然后即可进行一键部署

# Windows 操作系统docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb# docker run: 创建并启动一个新的容器# -d : 表示在后台运行容器# --name=maxkb: 为容器指定一个名称# --restart=always: 设置容器的启动策略,启动docker服务后,容器会自动重启# -P 8080:8080: 将容器的8080端口映射到主机的8080端口# -v C:/maxkb:/var/lib/postgresql/data:将主机上的c:/maxkb目录挂载到容器目录中# -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages: 将主机上的C:/python-packages挂载到容器目录中# registry.fit2cloud.com/maxkb/maxkb:表示从 registry.fit2cloud.com 的 maxkb 仓库中拉取名为 maxkb 的镜像


3.2 容器创建后的状态

C:\Users\10952>docker psCONTAINER ID   IMAGE                                COMMAND                   CREATED      STATUS          PORTS                              NAMES3e5c758b2b2e   registry.fit2cloud.com/maxkb/maxkb   "bash -c /usr/bin/ru…"   9 days ago   Up 46 seconds   5432/tcp, 0.0.0.0:8080->8080/tcp   maxkb


4. 访问MaxKB

  1. http://目标服务器 IP 地址:8080 (本地部署就是自己本机的IP)
  2. 默认登录信息 用户名:admin 默认密码:MaxKB@123..


5. 模型设置

5.1 登录后点击"系统设置",然后点击左侧"模型设置",点击添加模型



5.2 我这里选择deepseek模型,然后依次填写模型名称、权限看个人选择,基础模型选择"deepseek-chat",最后在API key 中输入从deepseek开放平台获取的API key 即可添加成功



6. 创建知识库

6.1 在"知识库"中创建属于自己业务的知识库,向量模型默认选择MaxKB自带的Embedding,知识库类型可以先默认选择通用性,并点击创建即可


6.2 在"知识库"中上传知识文档,目前支持包含txt、Markdown、PDF、Docx、HTML、xls、xlsx、csv、zip等文件格式,然后点击下一步



6.3 "设置分段规则"这里先可以默认选择"智能分段",然后可以通过"生成预览"查看,后期若是分段无法达到预期效果,可采用"高级分段"根据自定义的"正则表达式"进行分段,最后确认无误,点击"开始导入"


6.4 等待"生成",最后显示"成功"即代表分段成功,即可使用



7. 创建应用

7.1 在"应用"中创建应用,前期调试先选择"简单配置",然后点击创建



7.2 然后进行设置,选择已添加的大模型,我这里原先添加的是deepseek,就直接选择deepseek,然后关联知识库文档,将原先已上传的知识库进行关联上,保存并发布



7.3 创建完应用后,然后点击演示测试效果



7.4 开启问答测试,检测是否能够命中知识库,可以看到下面问题直接命中到知识库,并经过大模型优化后,并将知识库中的规则准确输出


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询