微信扫码
添加专属顾问
我要投稿
阿里千问开源Qwen3.5-Plus,原生多模态模型性能直逼GPT-5.2,除夕夜最强AI惊喜!核心内容: 1. 原生多模态架构突破:从零训练混合token,实现真正的跨模态理解 2. 门控注意力机制创新:NeurIPS最佳论文技术落地,显著提升模型精度 3. 极致稀疏激活设计:3970亿参数仅激活17亿,推理成本大幅降低
大家好,我是PaperAgent,不是Agent!
今年的AI春节档,阿里千问没有缺席~
刚刷到消息,他们正式开源了新一代大模型Qwen3.5-Plus,发布即登顶,实打实的最强"源神"。
看到性能数据的那一刻,我还是愣了一下——397B,激活仅17B——在多项基准(多模态、Agent等)媲美甚至超越GPT-5.2、Gemini-3-pro,这是硬实力。
更关键的是,这是一个真正意义上的原生多模态开源模型。
要理解千问3.5的突破,得先聊聊多模态模型这些年是怎么过来的。
很长一段时间里,所谓多模态模型,其实就是“文本模型+视觉Adapter”的缝合怪。
模型先在几十T的文本上预训练,把语言能力练得滚瓜烂熟,然后找一堆图像-文本对,训练一个视觉模块,把图片转成token,硬塞给文本模型去理解。
这种做法最大的问题是:模型睁开“眼睛”的时候,脑子已经定型了。
所以你会发现,很多多模态模型看个图表都费劲,更别提理解视频里的人物关系变化、空间位置转换这些需要时序推理的任务了。
千问3.5不一样。
它是从零开始,直接在海量混合token上训练的。文本、图像、视频打散了混在一起喂进去,让模型在学语法规则的同时,也在学像素之间的逻辑关系。
这意味着什么?
意味着它看一张厨房照片,不需要先转成“灶台、水槽、冰箱”这些文本概念再去推理。它可以直接理解灶台和水槽的相对位置,判断这个厨房的动线合不合理。
这种能力,不是外挂视觉模块能给的。
千问团队去年有一篇论文拿下了NeurIPS 2025的最佳论文。
研究的是个挺细节的问题:注意力机制里加个门控,到底有什么用?
这个问题的答案,现在被装进了千问3.5。
千问团队发现,在注意力输出后面加一个head-specific的sigmoid门控,效果出奇的好。
好在哪里?
带来了稀疏性。门控分数平均只有0.116,意味着大部分信息被过滤掉了。这听起来像是损失信息,但实际上,它滤掉的是那些对当前token无意义的上下文噪音。
说白了,就是让模型学会在满屏信息里只盯着跟自己有关的内容看,其他的自动屏蔽,跟人看书时自动忽略无关广告一样自然。
这对提升模型的输出精度和长上下文泛化能力功不可没。
大模型竞赛跑到今天,大家都明白一个道理:参数总量没那么重要,激活参数才决定推理成本。
Qwen3.5-Plus模型的3970亿总参数,激活只用170亿。不到二十分之一的参数量在工作,却能撑起超越万亿模型(Qwen3-Max)的性能。
这背后是混合架构的功劳。线性注意力加稀疏MoE,再加门控机制的稀疏激活,把计算效率压到了极致。
更关键的是,这个效率优势是在原生多模态训练框架下实现的。千问团队把视觉组件和语言组件的并行策略解耦,用稀疏激活让跨模块计算重叠起来。结果是:混着图像、视频、文本一起训练,吞吐量跟纯文本训练几乎没差别。同时,通过设计精巧的FP8/FP32精度应用策略,激活内存减少约50% ,训练提速10%。
这些技术细节意味着原生多模态训练技术路线被千问3.5打通了,而且能走得比缝合怪模式更远。
前面说的都是架构层面的东西,最后看看效果。
Qwen3.5-Plus模型在MathVison、RealWorldQA、CC_OCR、RefCOCO、MLVU这些视觉评测里,全都拿了第一。
这不是那种刷榜式的微弱优势,是拉开身位的那种领先。
比如空间定位推理,让它看一张房间照片,问沙发和茶几之间的距离,它不光能识别出沙发和茶几,还能理解它们之间的相对位置关系。这在以前的视觉语言模型里是很难做到的。
再比如带图推理,给一张手绘的UI草图,让它转成前端代码。以前得走“识别草图-理解布局-生成代码”三步,中间任何一步出错就崩了。千问3.5是视觉理解和代码能力原生融合的,直接一步到位。
还有视频理解。2小时的电影直接扔进去,让它总结剧情主线、分析人物关系变化。这种长时序的视觉推理,对模型的上下文能力和时序建模能力要求极高。千问3.5支持1M token的上下文,刚好能干这事。
技术再强,落地才是硬道理。
今年春节期间,千问APP上的Agent调用需求超过41亿次,订单量1.2亿单。用户在上面点奶茶、买年货、订电影票,全交给AI去操作。
这是全球第一次有人在真实世界的大规模场景里验证AI Agent的可行性。
千问3.5的Agent能力比之前又上了一个台阶。在BFCL-V4通用Agent评测、Browsecomp搜索Agent评测里,全都超过了Gemini-3-Pro。
背后支撑的是一套可扩展的异步强化学习框架,支持400B到万亿参数的模型做纯文本、多模态、多轮交互的训练。FP8精度推理让端到端加速3到5倍,基于插件的Agent脚手架能扩展到百万级规模。
千问3.5 API服务:每百万token输入只要0.8元——Gemini-3-Pro的1/18。
这个价格,不是靠亏本补贴换来的,也不是拿性能打折换来的。它是靠技术架构创新拼出来的。
而且,千问选择:把这个既好又便宜的模型,直接开源。
从2023年到现在,阿里开源了400多个模型。全球下载量突破10亿次,衍生模型超过20万个。这些数字背后,是越来越多的人正在基于千问做东西,而不是只能对着闭源API干瞪眼。
当别人还在用闭源筑墙、用高价抽水的时候,千问选择把墙拆了,把成本压到地板价,然后把成果交到每一个开发者手上。
这不是秀肌肉,是铺路,阿里一直是走在最前面的那个。
我一直觉得,开源模型最大的价值,不是让普通人免费用上AI,而是让开发者有机会看清楚顶尖模型是怎么做出来的。
千问3.5这次把包含门控注意力、混合架构、原生多模态训练的整套技术方案都开源了。
这才是开源该有的样子。
接下来的Qwen3.5-Max模型,据说更强。但那是之后的事了。
今天,Qwen3.5-Plus模型已经可以下载了。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-16
以小胜大!千问Qwen3.5重磅发布,每百万Token仅0.8元
2026-02-16
翻遍Peter Steinberger的GitHub页面,这可能是OpenClaw成功的产品密码
2026-02-16
刚刚,OpenClaw 被 OpenAI 收编!
2026-02-16
我与OpenClaw:从拒绝到皈依
2026-02-16
goclaw: 大火的 openclaw 项目的 Go 语言复现
2026-02-15
OpenClaw 的「中国套件」来了:飞书钉钉企微QQ一锅端
2026-02-15
🦞 OpenClaw 二月狂飙:从能用变成“真·好用”的7版连更
2026-02-14
让 OpenClaw 一键超简单部署,用 MonsterClaw 过年赚大钱
2025-11-19
2026-01-27
2026-01-29
2026-01-30
2026-01-12
2026-02-06
2025-12-22
2025-12-10
2026-01-28
2026-01-27
2026-02-11
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16