免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

来了,Qwen3.5-Plus开源,是除夕夜最惊喜的原生多模态模型

发布日期:2026-02-16 17:34:55 浏览次数: 1529
作者:PaperAgent

微信搜一搜,关注“PaperAgent”

推荐语

阿里千问开源Qwen3.5-Plus,原生多模态模型性能直逼GPT-5.2,除夕夜最强AI惊喜!

核心内容:
1. 原生多模态架构突破:从零训练混合token,实现真正的跨模态理解
2. 门控注意力机制创新:NeurIPS最佳论文技术落地,显著提升模型精度
3. 极致稀疏激活设计:3970亿参数仅激活17亿,推理成本大幅降低

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

大家好,我是PaperAgent,不是Agent!

今年的AI春节档,阿里千问没有缺席~

刚刷到消息,他们正式开源了新一代大模型Qwen3.5-Plus,发布即登顶,实打实的最强"源神"。

看到性能数据的那一刻,我还是愣了一下——397B,激活仅17B——在多项基准(多模态、Agent等)媲美甚至超越GPT-5.2、Gemini-3-pro,这是硬实力。

Qwen3.5-Plus模型在MMLU-Pro、BFCL-V4等基准上表现
Qwen3.5-Plus模型在MMLU-Pro、BFCL-V4等基准上表现

更关键的是,这是一个真正意义上的原生多模态开源模型

01 原生多模态,不是简单拼接

要理解千问3.5的突破,得先聊聊多模态模型这些年是怎么过来的。

很长一段时间里,所谓多模态模型,其实就是“文本模型+视觉Adapter”的缝合怪。

模型先在几十T的文本上预训练,把语言能力练得滚瓜烂熟,然后找一堆图像-文本对,训练一个视觉模块,把图片转成token,硬塞给文本模型去理解。

这种做法最大的问题是:模型睁开“眼睛”的时候,脑子已经定型了

所以你会发现,很多多模态模型看个图表都费劲,更别提理解视频里的人物关系变化、空间位置转换这些需要时序推理的任务了。

千问3.5不一样

它是从零开始,直接在海量混合token上训练的。文本、图像、视频打散了混在一起喂进去,让模型在学语法规则的同时,也在学像素之间的逻辑关系。

这意味着什么?

意味着它看一张厨房照片,不需要先转成“灶台、水槽、冰箱”这些文本概念再去推理。它可以直接理解灶台和水槽的相对位置,判断这个厨房的动线合不合理。

这种能力,不是外挂视觉模块能给的。

02 门控注意力:AI 顶会认证

千问团队去年有一篇论文拿下了NeurIPS 2025的最佳论文

https://arxiv.org/abs/2505.06708
https://arxiv.org/abs/2505.06708

研究的是个挺细节的问题:注意力机制里加个门控,到底有什么用?

这个问题的答案,现在被装进了千问3.5。

千问团队发现,在注意力输出后面加一个head-specific的sigmoid门控,效果出奇的好。

好在哪里?

带来了稀疏性。门控分数平均只有0.116,意味着大部分信息被过滤掉了。这听起来像是损失信息,但实际上,它滤掉的是那些对当前token无意义的上下文噪音

说白了,就是让模型学会在满屏信息里只盯着跟自己有关的内容看,其他的自动屏蔽,跟人看书时自动忽略无关广告一样自然。

这对提升模型的输出精度和长上下文泛化能力功不可没。

03 稀疏激活的极致:397B,只花17B

大模型竞赛跑到今天,大家都明白一个道理:参数总量没那么重要,激活参数才决定推理成本

Qwen3.5-Plus模型的3970亿总参数,激活只用170亿。不到二十分之一的参数量在工作,却能撑起超越万亿模型(Qwen3-Max)的性能。

这背后是混合架构的功劳。线性注意力加稀疏MoE,再加门控机制的稀疏激活,把计算效率压到了极致。

更关键的是,这个效率优势是在原生多模态训练框架下实现的。千问团队把视觉组件和语言组件的并行策略解耦,用稀疏激活让跨模块计算重叠起来。结果是:混着图像、视频、文本一起训练,吞吐量跟纯文本训练几乎没差别。同时,通过设计精巧的FP8/FP32精度应用策略,激活内存减少约50% ,训练提速10%。

这些技术细节意味着原生多模态训练技术路线被千问3.5打通了,而且能走得比缝合怪模式更远。

04 视觉能力的代际跃迁

前面说的都是架构层面的东西,最后看看效果。

Qwen3.5-Plus模型在MathVison、RealWorldQA、CC_OCR、RefCOCO、MLVU这些视觉评测里,全都拿了第一。

这不是那种刷榜式的微弱优势,是拉开身位的那种领先。

比如空间定位推理,让它看一张房间照片,问沙发和茶几之间的距离,它不光能识别出沙发和茶几,还能理解它们之间的相对位置关系。这在以前的视觉语言模型里是很难做到的。

再比如带图推理,给一张手绘的UI草图,让它转成前端代码。以前得走“识别草图-理解布局-生成代码”三步,中间任何一步出错就崩了。千问3.5是视觉理解和代码能力原生融合的,直接一步到位。

还有视频理解。2小时的电影直接扔进去,让它总结剧情主线、分析人物关系变化。这种长时序的视觉推理,对模型的上下文能力和时序建模能力要求极高。千问3.5支持1M token的上下文,刚好能干这事。

05 Agent能力的规模化验证

技术再强,落地才是硬道理。

今年春节期间,千问APP上的Agent调用需求超过41亿次,订单量1.2亿单。用户在上面点奶茶、买年货、订电影票,全交给AI去操作。

今年春节,你喝到了千问送的奶茶了吗?
今年春节,你喝到了千问送的奶茶了吗?

这是全球第一次有人在真实世界的大规模场景里验证AI Agent的可行性。

千问3.5的Agent能力比之前又上了一个台阶。在BFCL-V4通用Agent评测、Browsecomp搜索Agent评测里,全都超过了Gemini-3-Pro

背后支撑的是一套可扩展的异步强化学习框架,支持400B到万亿参数的模型做纯文本、多模态、多轮交互的训练。FP8精度推理让端到端加速3到5倍,基于插件的Agent脚手架能扩展到百万级规模。

06 高性价比:既好又便宜

千问3.5 API服务:每百万token输入只要0.8元——Gemini-3-Pro的1/18

这个价格,不是靠亏本补贴换来的,也不是拿性能打折换来的。它是靠技术架构创新拼出来的。

而且,千问选择:把这个既好又便宜的模型,直接开源。

从2023年到现在,阿里开源了400多个模型。全球下载量突破10亿次,衍生模型超过20万个。这些数字背后,是越来越多的人正在基于千问做东西,而不是只能对着闭源API干瞪眼。

当别人还在用闭源筑墙、用高价抽水的时候,千问选择把墙拆了,把成本压到地板价,然后把成果交到每一个开发者手上。

这不是秀肌肉,是铺路,阿里一直是走在最前面的那个。

07 最后

我一直觉得,开源模型最大的价值,不是让普通人免费用上AI,而是让开发者有机会看清楚顶尖模型是怎么做出来的。

千问3.5这次把包含门控注意力、混合架构、原生多模态训练的整套技术方案都开源了。

这才是开源该有的样子。

接下来的Qwen3.5-Max模型,据说更强。但那是之后的事了。

今天,Qwen3.5-Plus模型已经可以下载了。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询