微信扫码
添加专属顾问
我要投稿
Qwen,引领AI模型新纪元!性能与效率的完美结合。 核心内容: 1. Qwen2.5-1M模型的开源,涵盖7B和14B两个尺寸 2. 集成稀疏注意力机制,推理速度显著提升 3. 训练策略及硬件依赖的详细说明,助力高效应用
今天,Qwen2.5-1M模型开源。
2个尺寸,7B & 14B。开源并且,并结合vllm,集成了稀疏注意力机制,推理速度提升3到7倍。
14B模型的大海捞针获得了全绿的成绩,7B仅少量错误
长度提升的同时,短序列的成绩依然保持优异!
训练策略: 逐步变长到256K。 然后使用长度外推,外推用到了DCA的策略,
DCA通过将大的相对位置,按chunk分组,映射为较小的值
最后是硬件依赖:
对于处理 1M 长度的序列:
如果 GPU 显存不满足以上要求,仍然可以使用 Qwen2.5-1M 进行较短任务的处理。
最后,祝大家新年快乐!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-31
字节打响 Agent 平台战!Coze扣子、n8n、Dify谁是终点?
2025-07-31
Coze开源后,我用LLM+OCR做了一个文档智能问答Agent
2025-07-31
字节开源“扣子”,企业数字化转型的新机遇!
2025-07-31
一个不卷大模型的清华学霸,率先用AI赚到了钱
2025-07-31
阿里刚刚开源Qwen3新思考模型:Agent能力超强,支持100万上下文
2025-07-30
Coze:打造智能高效的股票交易系统
2025-07-30
阿里云Qwen3重大升级,已全面超越DeepSeek与Kimi
2025-07-30
更强的 Qwen3-Coder 来了,都用上了吗?
2025-07-23
2025-06-17
2025-06-17
2025-07-23
2025-07-14
2025-07-12
2025-05-29
2025-05-12
2025-05-14
2025-07-27
2025-07-31
2025-07-30
2025-07-30
2025-07-30
2025-07-29
2025-07-29
2025-07-28
2025-07-28