微信扫码
添加专属顾问
我要投稿
Qwen3-Next 模型架构革新解析:高稀疏度MoE与混合注意力技术如何实现超长上下文的高效推理。 核心内容: 1. 高稀疏度MoE架构设计:极低激活比实现10倍推理吞吐量提升 2. 混合注意力机制创新:融合门控增量网络与门控注意力优化上下文建模 3. 多词元预测等辅助技术:从预训练目标到归一化层的全方位性能优化
transformers 库近期合并了 Qwen3-Next 的 PR,正式将其纳入官方生态。这个 PR 提交了 Qwen3-Next-80B-A3B-Instruct 模型的实现,该模型被介绍为下一代基础模型,针对超长上下文和大规模参数效率进行了深度优化。官方的描述为:
The Qwen3-Next series represents our next-generation foundation models, optimized for extreme context length and large-scale parameter efficiency.
该模型的四大核心亮点为:
下面我们来深入 PR 内容,逐一解析 Qwen3-Next 的架构创新。
Qwen3-Next 的混合专家(MoE)设计有两个关键点:高稀疏度和共享专家。
1. 高稀疏度对解码性能的提升
高稀疏度是 Qwen3-Next 实现极致性能的核心。以 80B 版本为例,它拥有 800 亿总参数,但在生成每一个 token 时,仅需激活其中的 30 亿参数进行计算。这一激活比远低于当前主流 MoE 模型,是一项关键的架构选择。
这并非简单的“节约”,而是对性能的直接赋能。在自回归生成(decode)任务中,模型需要逐词进行前向传播,此时每一步的计算量 (FLOPs) 直接决定了生成速度。通过将激活参数降低一个数量级,Qwen3-Next 实现了:
可以说,高稀疏度 MoE 是 Qwen3-Next 在解码性能提升上的核心引擎。
2. 共享专家增强稳定性
为确保极致稀疏下的稳定性,Qwen3-Next 在 MoE 模块中额外增加了一个共享专家(Shared Expert),形成了一种更稳健的“双轨”设计。
共享路径 (Dense Path)稀疏专家路径 (Sparse Path)所有 Token所有 Token为每个 Token 选择 Top-K为每个 Token 选择 Top-K为每个 Token 选择 Top-K输入 Hidden State共享专家 (Shared Expert)路由 (Router)Expert 1...Expert N对 Top-K 专家输出进行加权求和共享路径输出add最终输出
如上图所示,输入 Token 会兵分两路:一路通过路由器选择 Top-K 个稀疏专家进行专业化计算;另一路则全部通过一个共享专家进行通用化计算。这种设计好比一个会诊流程:共享专家如同经验丰富的“全科医生”,处理基础和通用的语言模式;稀疏专家则像“专科医生”,处理更细分、更专业的知识。Qwen3NextSparseMoeBlock 的代码清晰地实现了这一并行结构,共享专家的存在为模型提供了一个稳定的计算基座,极大地提升了模型的鲁棒性。
Qwen3-Next 采用混合注意力架构以高效处理长上下文。它在不同层交替使用 O(N²) 复杂度的标准注意力和 O(N) 复杂度的线性注意力,实现了能力与效率的平衡。
InputLayer iGated Full Attention(O(N²) 复杂度, 精准捕捉)Layer i+1Gated DeltaNet (线性)(O(N) 复杂度, 高效长距)Output
GatedDeltaNet 计算机制详解
其中,Qwen3NextGatedDeltaNet 是实现线性注意力的核心模块。它通过一套精密的“输入-卷积-门控-递归-输出”流程,在保持线性复杂度的同时,实现了对长距离依赖的有效建模。
hidden_states 被线性层 (in_proj_qkvz, in_proj_ba) 投影成一系列中间状态:query, key, value 及用于门控的 z, b, a。qkv 张量经过一个一维因果卷积,它像一个滑动窗口,用于高效捕捉每个 Token 与其附近邻居之间的局部上下文。# 文件: modeling_qwen3_next.py -> class Qwen3NextGatedDeltaNet
mixed_qkv = self.causal_conv1d_fn(
x=mixed_qkv,
weight=self.conv1d.weight.squeeze(1),
# ...
)a 和 b 中,学习两个关键的、类似 RNN 的门控信号:beta = b.sigmoid()
g = -self.A_log.float().exp() * F.softplus(a.float() + self.dt_bias)beta (输入门): 通过 sigmoid 函数,控制有多少新信息(value)可以被写入“状态”。g (遗忘门): 控制历史信息的衰减率,决定“记忆”能保留多久。q, k, v 和门控信号 beta, g 送入核心的递归函数,进行全局信息传递。这一步是实现 O(N) 复杂度的关键。core_attn_out, _ = self.chunk_gated_delta_rule(
query, key, value, g=g, beta=beta, ...
)GatedDeltaNet 的输出 core_attn_out 还会被 z 进行最终的门控调制,然后才传递给下一层。core_attn_out = self.norm(core_attn_out, z)
通过这套流程,GatedDeltaNet 实现了“卷积捕捉局部,递归传递全局”的高效信息处理模式。
多词元预测 (MTP) 是一种先进的预训练目标,它在预训练和推理阶段都有显著增益。
t 时刻只预测 t+1 的词元。MTP 则要求模型在 t 时刻同时预测 t+1, t+2, ..., t+n 多个未来的词元。这有助于模型学习更具前瞻性的语言模式,提升了其对因果关系的理解。n 个候选 token,再由系统并行验证,从而在命中率高的情况下,数倍提升解码速度,是实现高效推理的关键技术之一。Qwen3NextPreTTrainedModel 类中的 _keys_to_ignore_on_load_unexpected = [r"^mtp.*"] 这行代码,证实了 MTP 是其预训练阶段的一部分,相关的权重已经融入模型,即使推理代码中没有显式的多头预测结构。
Qwen3-Next 对 RMSNorm 进行了精巧的改进,以增强训练稳定性。
# 文件: modeling_qwen3_next.py -> class Qwen3NextRMSNorm
def forward(self, x):
# 核心: 乘以 (1.0 + weight),而非直接乘 weight
output = self._norm(x.float()) * (1.0 + self.weight.float())
return output.type_as(x)由于 self.weight 初始化为 0,该层在训练初期近似于一个无参数的纯归一化操作。这个看似微小的改动有助于稳定梯度在网络深层的传播,特别是在训练初期,对避免梯度爆炸或消失问题有积极作用。
Qwen3-Next 的设计哲学是在“大而全”和“小而美”之间寻找最佳平衡点。它并非依赖单一技术的颠覆,而是通过一系列精心设计的技术组合:
这些技术细节的深度融合,最终造就了这款在性能、效率和训练成本上都极具竞争力的下一代大语言模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-19
谷歌Gemini 3 Pro发布:碾压GPT-5.1,AI大战进入三国杀时代
2025-11-19
Milvus+最强大模型Gemini 3 Pro怎么搭RAG?(含免费教程)
2025-11-19
我挖到Gemini 3.0 Pro十大隐藏玩法,做网页已经落后N个版本了
2025-11-19
大小模型协同架构在金融智能投顾中的应用与挑战
2025-11-19
AI Agent(智能体)的冰山之下,12 层技术栈与生态体系深度解析
2025-11-19
扣子工作流:AI任务执行的自动化革命
2025-11-19
我们给六个 AI 同一段市场数据,它们生成了六种完全不同的交易策略 | Jinqiu Scan
2025-11-19
即刻使用 Gemini 3 开始构建
2025-10-02
2025-09-16
2025-09-19
2025-09-08
2025-09-17
2025-09-29
2025-10-26
2025-09-14
2025-10-07
2025-09-30
2025-11-19
2025-11-19
2025-11-19
2025-11-18
2025-11-18
2025-11-17
2025-11-15
2025-11-14