微信扫码
添加专属顾问
我要投稿
DeepSeek在假期前放出大招,开源V3.2-Exp模型并公开全新稀疏注意力机制DSA,大幅提升长文本处理效率!核心内容: 1. DeepSeek-V3.2-Exp模型参数与开源信息 2. 创新的DSA稀疏注意力机制技术细节 3. 与V3.1-Terminus的性能对比测试结果
机器之心编辑部
还是熟悉的节奏!
在假期前一天,DeepSeek 果然搞事了。
刚刚,DeepSeek-V3.2-Exp 开源了!
该模型参数量为 685B,HuggingFace 链接:
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
此外,此次发布竟然也同步公开了论文,公开了 DeepSeek 新的稀疏注意力机制,为我们提供了更多结束细节:
https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
DeepSeek Sparse Attention(DSA)稀疏注意力机制
在官方介绍中,DeepSeek 表示 DeepSeek-V3.2-Exp 是实验版本。作为迈向下一代架构的过渡,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek 稀疏注意力机制(DeepSeek Sparse Attention,DSA)—— 一种旨在探索和验证在长上下文场景下训练和推理效率优化的稀疏注意力机制。
DSA 也是 3.2 版本的唯一架构改进。
DeepSeek-V3.2-Exp 的架构,其中 DSA 在 MLA 下实例化。
重点要说的是,DeepSeek 称该实验版本代表了他们对更高效的 Transformer 架构的持续研究,特别注重提高处理扩展文本序列时的计算效率。
在 v3.2 版本中,DeepSeek 稀疏注意力 (DSA) 首次实现了细粒度稀疏注意力,在保持几乎相同的模型输出质量的同时,显著提高了长上下文训练和推理效率。
为了严格评估引入稀疏注意力机制的影响,DeepSeek 特意将 DeepSeek-V3.2-Exp 的训练配置与 9 月 22 日刚刚推出的 V3.1-Terminus 进行了对比。在各个领域的公开基准测试中,DeepSeek-V3.2-Exp 的表现与 V3.1-Terminus 相当。
更多信息,读者们可以查阅 DeepSeek-V3.2-Exp 的 huggingface 介绍。
值得一提的是,智谱的 GLM-4.6 也即将发布,在 Z.ai 官网可以看到,GLM-4.5 标识为上一代旗舰模型。
最后,有一波小节奏。在模型发布前,已经有网友在 Community 里发帖称:国庆是休息日,请给我们关注的同学一点休息时间。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-29
DeepSeek-V3.2背后的国产算子编程语言TileLang是什么?如何保持性能领先的同时减少6倍代码量?
2025-09-29
DeepSeek-V3.2-Exp开源,附论文细节解读!
2025-09-29
独家 | 帆软首次掀起盖头,万字访谈揭密BI巨头的出海之路
2025-09-29
2 分钟搞定官方文档没写的隐藏功能?99%的人还没掌握这种AI学习法!
2025-09-27
一招搞定知识库的文档分级分类,Dify可以这么做
2025-09-27
N8N全面解析:优势、短板与适用场景
2025-09-24
云栖大会阿里掀桌子了!Qwen3-Max、VL、Omini、Agent ... 统统发布!
2025-09-24
阿里发布Qwen3-VL:开源多模态登顶 SOTA
2025-07-23
2025-08-20
2025-09-07
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-07-12
2025-07-31
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07
2025-09-01
2025-08-16
2025-08-13