支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Qwen3 与 ollama 兼容性问题

发布日期:2025-05-10 20:21:53 浏览次数: 1519 作者:生有可恋
推荐语

探索Qwen3和ollama模型的兼容性挑战,了解最新版本支持情况及部署建议。

核心内容:
1. 新版本ollama与Gemma3的兼容性要求
2. 推荐运行环境及不同Linux发行版对新模型的支持
3. Qwen3模型在不同ollama版本下的表现及部署建议

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
新模型出来后需要和 Ollama 做适配,比如v0.6.0版本后才开始支持 Gemma3,之前的版本无法运行 Gemma3。同时新版本的 ollama 对 gblic 版本有要求,在 CentOS 7 等版本上无法运行新版本的 ollama。
推荐的运行环境是 Ubuntu 22.04 或 Ubuntu 24.04 等新出的 Linux 发行版,他们自带的 glibc 版本比较高,对新模型和Nvidia驱动的支持比较好。 
昨天测试了在 v0.6.0 的 ollama 上跑 qwen3:32b。虽然可以下载模型文件,但跑不了。运行 qwen3:32b 时报错:
Error: unable to load model
目前最新版的 ollama 版本为 v0.6.6,rc 版是 v0.6.7-rc0
当新版发布时会公布支持的新模型,比如 v0.6.0 时公布支持 gemma3,v0.6.6 公布支持 DeepCoder。
目前 v0.6.7-rc 版暂未公布支持 qwen3,通过测试发现在 v0.6.7 下能把 qwen3:32b 跑起来,但稳定性存在问题。每轮会话结束 qwen3 模型都会自动卸载掉,新会话开始又重新加载模型。在应用侧会表现为响应变慢,每问一次问题都会卡好一会。
建议等新的 ollama 版本官宣支持 qwen3 后再部署,当前稳定性不足无法正常使用 qwen3。
qwen3 各尺寸模型文件大小为:
本地部署可以考虑 qwen3:30b-a3b 和 qwen3:32b,他们大小相似但模型不同,qwen3:32b 属于密集模型,qwen3:32b-a3b 属于混合专家(Moe)模型。qwen3 最强大的模型是142G的 qwen3:235b-a22b,它与 qwen3:32b-a3b 同属 Moe 模型。
如果是4卡v100或3060显卡,可以考虑部署 qwen3:32b 和 qwen3:30b-a3b。如果是8卡的A800,可以考虑上 qwen3:235b-a22b。
秀一下昨天刚装好的 A800 的机器:
全文完。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询