推荐语
探索Qwen3和ollama模型的兼容性挑战,了解最新版本支持情况及部署建议。
核心内容:
1. 新版本ollama与Gemma3的兼容性要求
2. 推荐运行环境及不同Linux发行版对新模型的支持
3. Qwen3模型在不同ollama版本下的表现及部署建议
杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
新模型出来后需要和 Ollama 做适配,比如v0.6.0版本后才开始支持 Gemma3,之前的版本无法运行 Gemma3。同时新版本的 ollama 对 gblic 版本有要求,在 CentOS 7 等版本上无法运行新版本的 ollama。推荐的运行环境是 Ubuntu 22.04 或 Ubuntu 24.04 等新出的 Linux 发行版,他们自带的 glibc 版本比较高,对新模型和Nvidia驱动的支持比较好。 昨天测试了在 v0.6.0 的 ollama 上跑 qwen3:32b。虽然可以下载模型文件,但跑不了。运行 qwen3:32b 时报错:Error: unable to load model
目前最新版的 ollama 版本为 v0.6.6,rc 版是 v0.6.7-rc0当新版发布时会公布支持的新模型,比如 v0.6.0 时公布支持 gemma3,v0.6.6 公布支持 DeepCoder。目前 v0.6.7-rc 版暂未公布支持 qwen3,通过测试发现在 v0.6.7 下能把 qwen3:32b 跑起来,但稳定性存在问题。每轮会话结束 qwen3 模型都会自动卸载掉,新会话开始又重新加载模型。在应用侧会表现为响应变慢,每问一次问题都会卡好一会。建议等新的 ollama 版本官宣支持 qwen3 后再部署,当前稳定性不足无法正常使用 qwen3。本地部署可以考虑 qwen3:30b-a3b 和 qwen3:32b,他们大小相似但模型不同,qwen3:32b 属于密集模型,qwen3:32b-a3b 属于混合专家(Moe)模型。qwen3 最强大的模型是142G的 qwen3:235b-a22b,它与 qwen3:32b-a3b 同属 Moe 模型。如果是4卡v100或3060显卡,可以考虑部署 qwen3:32b 和 qwen3:30b-a3b。如果是8卡的A800,可以考虑上 qwen3:235b-a22b。