微信扫码
添加专属顾问
我要投稿
Qwen3系列模型的部署实测与性能分析,揭示AI模型的新高度。 核心内容: 1. Qwen3系列模型的性能优势与特点 2. MOE模型与Dense模型的性能对比和部署要求 3. 不同硬件配置下的推理速度实测结果
深夜发布的Qwen3系列模型,很强!
一共开源了:
其中性能部分,这次主要关注MOE,MOE因为激活参数少,虽然占的显存大,但是实际对算力的要求不高,所以性价比更高,同时MOE模型的性能也普遍大于同尺寸Dense模型:
这回Qwen3系列模型的主要技术优势包括:
依然是两个MOE的模型比较香,Qwen3-235B-A22B 和 Qwen3-30B-A3B。另一个Qwen3-32B稳步提升,32B也是个人比较喜欢的一个尺寸。
不过这里还是先讨论MOE,为什么MOE模型相比Dense模型香呢:
先看第一个,Qwen3-30B-A3B需要什么配置可以跑起来?
相比之前的QwQ-32B,Qwen3-30B-A3B更节省“思考”Token,实际推理中除了实际算力需要的少,模型思考长度也少了不少,实际好用率大大提高
Qwen3-235B-A22B尺寸类似于Deepseek-v2,略大一丢丢,实际性能参考后者就行:
当然有人实际跑起来了:Qwen3-235B-A22B-4bit量化版本在 Apple Mac Studio M2 Ultra 能跑到 28 toks/sec,大概占用 132GB 内存。如果使用8x4090或者2xH20会跑的更快,不过也就失去折腾的意义了。
另外AMD的AI MAX 395 128G版本也有人跑起来DeepSeek-V2 236B,不过目前没有开源相关推理代码,门槛相比nvidia和mac高一些,不过也不是不能试试。
我个人有一台AI MAX 390 + 128G的配置,在配环境中,AMD的rocm + HIP相比nVidia的CUDA来说还是有点难用,如果能配起来,可能也是跑Qwen3-235B-A22B性价比高的一款机器了。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-30
开源可信MCP,AICC机密计算新升级!
2025-10-30
OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b
2025-10-29
刚刚,OpenAI 再次开源!安全分类模型 gpt-oss-safeguard 准确率超越 GPT-5
2025-10-29
AI本地知识库+智能体系列:手把手教你本地部署 n8n,一键实现自动采集+智能处理!
2025-10-29
n8n如何调用最近爆火的deepseek OCR?
2025-10-29
OpenAI终于快要上市了,也直面了这23个灵魂拷问。
2025-10-29
保姆级教程:我用Coze干掉了最烦的周报
2025-10-29
维基百科,终结了!马斯克开源版上线,用AI重写「真相」
2025-08-20
2025-09-07
2025-08-05
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-08-06
2025-10-20
2025-08-22
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07