微信扫码
添加专属顾问
我要投稿
Qwen3 系列模型即将带来革命性的性能提升和技术创新。 核心内容: 1. Qwen3 模型的新特性和与传统 MoE 的差异 2. Qwen3MoE 与 Qwen2.5 的技术对比和优势 3. Qwen3MoE 在小参数模型中的性能表现和应用前景
huggingface/transformers 的 pr 中看到来自 Qwen3 和 Qwen3MoE 的请求。原文:https://github.com/huggingface/transformers/pull/36878
浏览代码可以看到这次的更新有:
https://huggingface.co/Qwen/Qwen3-15B-A2B (MOE model)
https://huggingface.co/Qwen/Qwen3-8B-beta
Qwen/Qwen3-0.6B-Base
看来本次针对更新的都是一些小参数的模型,比较期待有一个 30-40B 的 MoE
特性:
路由策略: 传统MoE采用全局路由,即所有专家参与计算。Qwen3Moe采用稀疏路由,仅Top-K个专家参与计算。
负载均衡: 传统MoE没有显式优化,容易出现专家坍塌。Qwen3Moe集成load_balancing_loss,以惩罚不均衡的情况。
计算复杂度: 传统MoE的计算复杂度为O(N×E),其中N为序列长度,E为专家数。Qwen3Moe的计算复杂度为O(N×K),其中K为Top-K参数。
动态适应性: 传统MoE使用固定频率的RoPE。Qwen3Moe动态调整RoPE频率,属于动态类型。
特性:
RoPE类型: Qwen-2.5仅支持静态RoPE。Qwen3Moe支持dynamic、yarn、llama3等多种类型。
稀疏层调度: Qwen-2.5未明确支持。Qwen3Moe通过mlp_only_layers和sparse_step实现灵活控制。
注意力后端: Qwen-2.5仅基础实现。Qwen3Moe集成Flash Attention 2和SDPA加速。
生成缓存管理: Qwen-2.5使用传统KV缓存。Qwen3Moe支持滑动窗口缓存(sliding_window)。
MoE实现: Qwen-2.5未使用MoE。Qwen3Moe实现稀疏MoE + 负载均衡损失。
特性:
动态 RoPE:支持多种缩放策略,适配长序列和不同硬件。
稀疏 MoE:通过 Top-K 路由和负载均衡损-失,提升模型容量与训练稳定性。
高效注意力:集成 Flash Attention 2 和 SDPA,优化生成速度。
模块化设计:继承并扩展 Llama/Mistral 组件,提升代码可维护性。
生成优化:滑动窗口缓存和动态 KV 更新,降低解码内存占用。
目前在小参数模型中,个人总体使用感觉来说,qwen 模型是首选,特别是此次将要更新的 Qwen3-15B-A2B,15B 总参数量的稀疏 MoE 模型,实际激活参数量为 2B,所以要求的硬件设备资源更低,速度可以更快
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-17
打造 Claude Code 并行自主开发环境:Auto Claude + GLM 4.7
2026-03-17
又一款开源的LLM生成3D场景的3D编辑器,这次功能更强大了
2026-03-17
英伟达的NemoClaw,能帮AI代理这匹“野马”套上缰绳吗?
2026-03-17
腾讯混元AI Infra核心技术重磅开源:推理吞吐提升30%!
2026-03-17
英伟达重磅开源!Nemotron 3 Super:专为AI智能体打造的"超级大脑
2026-03-16
22.4K Stars,减少 93% 上下文。AI Agents 专用浏览器自动化 CLI 真强!
2026-03-13
你的 AI Agent 真的在受控运行吗?
2026-03-12
Harness Engineering 的防御视角:从 Codex Security 看 AI 生成代码的治理
2026-01-27
2026-01-30
2026-01-12
2026-01-29
2026-01-27
2025-12-22
2026-01-28
2026-01-21
2025-12-23
2026-01-06
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21