支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


阿里刚刚开源Qwen3新思考模型:Agent能力超强,支持100万上下文

发布日期:2025-07-31 08:26:36 浏览次数: 1548
作者:AIGC开放社区

微信搜一搜,关注“AIGC开放社区”

推荐语

阿里开源Qwen3-30B-A3B-Thinking-2507模型,Agent能力大幅提升,支持百万级上下文窗口,性能超越谷歌同类产品。

核心内容:
1. Qwen3-30B-A3B-Thinking-2507模型的核心技术参数与架构特点
2. 在Agent智能体、数学推理、编程等任务上的性能突破
3. 开源生态布局与开发者社区反馈

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

今天凌晨,阿里巴巴开源了Qwen3家族最新模型Qwen3-30B-A3B-Thinking-2507


2507与之前阿里开源的Qwen3-30B-A3B-ThinkingQwen3-235B-A22B-Thinking相比,在Agent智能体、AIME25数学、LiveCodeBench编程、GPQA解决复杂能力等方面,性能全部实现大幅度提升。


同时,2507也超过了谷歌的最新小参数模型Gemini-2.5-Flash-Thinking


开源地址:https://huggingface.co/Qwen/Qwen3-30B-A3B-Thinking-2507


https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Thinking-2507


对于阿里的新模型,网友表示,疯狂优秀的本地模型,绝对是我能在 20GB 以内装下的最佳选择。思考模式真的带来了天壤之别,恭喜你们,太给力了!


对于这么小的一个模型而言,它在各方面的性能提升都令人印象深刻。


不错,性能很强。现在只需要融合多模态能力,并支持 8 小时的音频和视频转录等功能就更好了。


干得漂亮,各位。真难以想象完成这项工作付出了多少努力,那些不眠之夜和全神贯注的时刻。


Qwen 团队的工作令人赞叹!Qwen3-30B-A3B-Thinking-2507模型在推理能力上的提升以及超大的上下文窗口具有颠覆性意义,为复杂问题的解决开辟了令人期待的新可能。期待探索它的潜力!


干的非常好,Qwen做的很棒。


Qwen3-30B-A3B-Thinking-2507总参数量达到 305 亿,其中激活的参数量为 33亿,非嵌入参数量为 299 亿。该模型包含 48层,采用 Grouped Query Attention机制,的注意力头数为 32KV 的注意力头数为 4


此外,它还具备 128 个专家,其中激活的专家数量为8。原生支持256K上下文,但通过扩展可增加至100万。


在性能方面,Qwen3-30B-A3B-Thinking-2507相比其他模型在多个任务上都有出色表现。例如,在知识类的 MMLU-Pro 任务中得分为 80.9MMLU-Redux91.4GPQA73.4SuperGPQA56.8;在推理类的AIME25任务中得分为85.0HMMT25为71.4LiveBench 20241125  76.8


在编码类的LiveCodeBench v625.02 - 25.05)任务中得分为66.0CFEval  2044OJBench  25.1;在对齐类的IFEval 任务中得分为88.9Arena-Hard v2  56.0Creative Writing v384.4WritingBench85.0

Agent智能体类的BFCL - v3 任务中得分为72.4TAU1 - Retail 67.8TAU1 - Airline48.0TAU2 - Retail  58.8TAU2 - Airline  58.0TAU2 - Telecom  26.3


在多语言类的 MultiIF 任务中得分为 76.4MMLU-ProX  76.4INCLUDE 74.4PolyMATH52.6


Qwen3-30B-A3B-Thinking-2507在工具调用能力方面表现出色,推荐使用 Qwen - Agent 来充分发挥其代理能力,Qwen - Agent 内部封装了工具调用模板和工具调用解析器,大大降低了编码复杂性。可以通过 MCP 配置文件、Qwen - Agent 的集成工具或自行集成其他工具来定义可用工具。


为了达到最佳性能,建议采用这些设置:在采样参数方面,建议使用温度为0.6TopP  0.95TopK20MinP0,对于支持的框架,还可以在02之间调整 presence_penalty 参数以减少无休止的重复,但使用较高值可能会偶尔导致语言混合和模型性能略有下降;


在输出长度方面,建议大多数查询使用 32768token的输出长度,对于高度复杂问题如数学和编程竞赛的基准测试,建议将最大输出长度设置为 81920 token,为模型提供足够的空间来生成详细全面的回答,从而提升整体性能。


END

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询