支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


CherryStudio配置本地Ollama连接使用本地mistral对话模型和bge-m3嵌入式模型

发布日期:2025-05-11 11:40:09 浏览次数: 1532 作者:架构面面观
推荐语

深度解析Cherry Studio与Ollama模型的无缝对接,让本地AI对话更便捷!

核心内容:
1. Cherry Studio与Ollama模型的配置流程
2. 本地模型在Cherry Studio中的应用与优势
3. 作者对技术小白的贴心指导与建议

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

在昨天的文章中已经讲了如何从Ollama官方网站下载、安装Ollama软件,并配置Windows环境变量,放开防火墙端口等,最后再下载运行了“mistral-small3.1”模型(该模型具备LLM推理对话、vision、tools功能),以及“bge-m3”模型(该模型是嵌入式模型,可用于知识库)。现在万事俱备只欠东风,我们就来看看如何配置Cherry Studio这种直接与用户打交道的“AI助手”或者叫“AI对话框”是如何与模型底层进行匹配工作的。

首先从Cherry Studio的“设置”进入“模型服务”,选择“Ollama”,在详细配置页面的“API地址”处填上【“http://localhost:11434”】(这个地址就是模型提供服务的接口地址),然后点击“管理”。
进入Ollama模型详细配置页面就能看到已经下载安装完毕的“bge-m3:latest”和“mistral-small3.1:latest”模型,直接点击右侧的“+”号,添加模型。
前期使用API KEY方式构建的知识库是没法换嵌入式模型的,只能新建添加新知识库,在“嵌入模型”位置,直接选择Ollama的“bge-m3:latest”模型。

最后到Cherry Studio设置中去调整“默认模型”使用Ollama部署的“mistral-small3.1:latest”模型。

至此,就可以不受限制的在Cherry Studio的对话框中享受本地模型带来的使用便利了。

我的文章里面配的一步一步操作的截图比较多,内容稍微偏浅显易懂一点,主要是考虑到“工具就是拿来用的,越多普通人知道如何使用,才能提高效率”,会更多照顾到普通人的理解水平。各位技术大拿可忽略……

---------------------------------------

喜欢本文的朋友请“点赞+转发+推荐”

有问题请留言,咱们评论区聊

请关注并订阅本公众号“架构面面观”

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询