推荐语
格雷手把手教你搭建DeepSeek知识库,从本地部署到联网搜索,一网打尽!
核心内容:
1. DeepSeek本地部署全流程,从安装ollama到启动模型
2. 解决部署中常见问题,如Docker安装和GPU利用率低
3. 安装Page Assist插件,实现本地AI模型的Web UI操作
杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
今天就来解决这些问题,一个本地部署+私人知识库+联网搜索的终极方案。如果你是老粉,看过我以前的文章,这一步可跳过,直接ollama run deepseek-r1:1.5b。首先打开ollama官网:https://ollama.comCMD命令窗口运行,启动deepseek-r1模型:ollama run deepseek-r1:7b
根据自己显卡大小,选择对应的参数规模,1.5b最小,可以先用这个来尝试,完成以后再跑更大的参数模型。另外有人反馈,任务管理器显示,大模型在执行的时候,回答很慢,GPU几乎没动,全都是CPU在跑。大概率是安装了老版本的Ollama,官网下载最新的文件重新安装即可。网络条件允许的话,直接谷歌商店搜索下载,下面介绍的方法国内网络可用。搜索:Page Assist,第一个就是今天主角,本地AI模型的Web UI。下载到本地,谷歌浏览器打开:chrome://extensions/,右上角打开开发者模式,将下载好的crx文件拖入浏览器,完成插件的安装。浏览器上方的扩展程序列表,找到Page Assist插件,点击进入WebUI界面。左上角可以选择ollama的所有本地模型,所以选deepseek-r1:7b就好了。到这一步就可以流畅地使用deepseek大模型啦。首次使用是英文版,不太习惯,点击右上角设置齿轮,【General Settings】,分别选择【简体中文】。依然是右上角设置齿轮,【一般设置】,下方有个【管理网络搜索】,选择合适的搜索引擎,总搜索结果默认是2,可以适当调大一些,这样参考网络资源的权重更大。回到聊天页面,打开聊天框下方的【搜索互联网】开关,联网搜索功能就搞定啦。比如问一个关于《哪吒2》的评价,除了看到思考过程,下方还有列出了引用的数据来源。ollama pull nomic-embed-text
回到设置,【RAG设置】,文本嵌入模型选择【nomic-embed-text:latest】,保存。文本嵌入模型的作用是,让大模型理解我们的文本资料。左侧菜单【管理知识】,【添加新知识】,指定知识的标题,并上传我们的本地资料,提交。这里的知识,指的就是知识库,当状态是【已完成】,代表大模型已经处理完成了。本地大模型完美地回答了我们的问题,知识库搭建完成!简单回顾一下,这次的方案:Ollama + Page Assist插件,没有docker的复杂配置,而且完美地实现了本地部署+联网搜索+知识库。