免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


刚刚,DeepSeek开源V3.2-Exp,公开新稀疏注意力机制DSA

发布日期:2025-09-29 18:53:53 浏览次数: 1513
作者:机器之心

微信搜一搜,关注“机器之心”

推荐语

DeepSeek在假期前放出大招,开源V3.2-Exp模型并公开全新稀疏注意力机制DSA,大幅提升长文本处理效率!

核心内容:
1. DeepSeek-V3.2-Exp模型参数与开源信息
2. 创新的DSA稀疏注意力机制技术细节
3. 与V3.1-Terminus的性能对比测试结果

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
机器之心报道

机器之心编辑部


还是熟悉的节奏!


在假期前一天,DeepSeek 果然搞事了。



刚刚,DeepSeek-V3.2-Exp 开源了!



该模型参数量为 685B,HuggingFace 链接:

https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp


此外,此次发布竟然也同步公开了论文,公开了 DeepSeek 新的稀疏注意力机制,为我们提供了更多结束细节:



https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf


DeepSeek Sparse Attention(DSA)稀疏注意力机制


在官方介绍中,DeepSeek 表示 DeepSeek-V3.2-Exp 是实验版本。作为迈向下一代架构的过渡,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek 稀疏注意力机制(DeepSeek Sparse Attention,DSA)—— 一种旨在探索和验证在长上下文场景下训练和推理效率优化的稀疏注意力机制。


DSA 也是 3.2 版本的唯一架构改进。


DeepSeek-V3.2-Exp 的架构,其中 DSA 在 MLA 下实例化。


重点要说的是,DeepSeek 称该实验版本代表了他们对更高效的 Transformer 架构的持续研究,特别注重提高处理扩展文本序列时的计算效率。



在 v3.2 版本中,DeepSeek 稀疏注意力 (DSA) 首次实现了细粒度稀疏注意力,在保持几乎相同的模型输出质量的同时,显著提高了长上下文训练和推理效率。


为了严格评估引入稀疏注意力机制的影响,DeepSeek 特意将 DeepSeek-V3.2-Exp 的训练配置与 9 月 22 日刚刚推出的 V3.1-Terminus 进行了对比。在各个领域的公开基准测试中,DeepSeek-V3.2-Exp 的表现与 V3.1-Terminus 相当。



更多信息,读者们可以查阅 DeepSeek-V3.2-Exp 的 huggingface 介绍。


值得一提的是,智谱的 GLM-4.6 也即将发布,在 Z.ai 官网可以看到,GLM-4.5 标识为上一代旗舰模型。



最后,有一波小节奏。在模型发布前,已经有网友在 Community 里发帖称:国庆是休息日,请给我们关注的同学一点休息时间。



对此,你怎么看?

图片


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询