微信扫码
添加专属顾问
我要投稿
阿里云又来炸场了!他们刚刚开源了新一代视觉语言模型Qwen2-VL,而且一口气发布了20亿参数和70亿参数两个版本,还开放了最强720亿参数版本的API!这波操作简直6到飞起!?
看得清,看得懂: Qwen2-VL 在各种视觉理解任务上都取得了 SOTA 成绩,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等等。无论是图像分辨率还是长宽比,都难不倒它
20分钟长视频也不怕: Qwen2-VL 能理解超过 20 分钟的视频,可以用来做高质量的视频问答、对话、内容创作等等
可操作手机、机器人等的Agent: Qwen2-VL 还能跟手机、机器人等设备结合,实现自动操作!它强大的推理和决策能力,加上对视觉环境和文本指令的理解,让它成为真正的“智能管家”
多语言支持,全球用户都能用: 除了英语和中文,Qwen2-VL 现在还支持识别图像中的多种语言文本,包括大部分欧洲语言、日语、韩语、阿拉伯语、越南语等等,真正做到了面向全球用户!
70亿参数以下,Qwen2-VL 就是最强的! 而且,为了让 Qwen2-VL 能够在手机等移动设备上运行,阿里云还首次发布了 20 亿参数的小型视觉语言模型 Qwen2-VL-2B
博客:
https://qwenlm.github.io/blog/qwen2-vl/
GitHub:
https://github.com/QwenLM/Qwen2-VL
Hugging Face:
https://huggingface.co/collections/Qwen/qwen2-vl-66cee7455501d7126940800d
ModelScope:
https://modelscope.cn/organization/qwen
Qwen2-VL 成功的三个秘诀:
1.Naive Dynamic Resolution 支持: Qwen2-VL 可以处理任意分辨率的图像,并将它们映射成动态数量的视觉token,从而保证模型输入和图像信息的一致性。这就像人类的视觉感知一样,无论图像清晰度或大小如何,都能轻松识别
2.多模态旋转位置编码(M-ROPE): 通过将旋转位置编码分解成时间、空间(高度和宽度)三部分,M-ROPE 使 LLM 能够同时捕捉和整合一维文本、二维视觉和三维视频的位置信息,让模型更全面地理解多模态信息
3.数据为王! Data is all you need
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-27
ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新
2026-03-23
128K Star 的开源 AI 编程 Agent,把 Anthropic 逼到发律师函了
2026-03-23
字节跳动开源 DeerFlow 2.0:下一代超级 Agent 引擎,一键搞定复杂工作流!
2026-03-23
企业中职能部门打工人如何选小龙虾
2026-03-23
MiniMax开源技能包:让AI写代码从大学生变资深工程师
2026-03-22
OxyGent:构建高效能多智能体系统的协作框架
2026-03-22
Ollama绝赞适配World Monitor:无需API密钥的全球情报看板,金融地缘一手掌握!`
2026-03-22
重磅!VS Code 正式“改名”!绿色版 VS Code 更强!
2026-01-30
2026-01-27
2026-01-12
2026-01-29
2026-01-27
2026-01-21
2026-01-28
2026-01-06
2026-01-26
2026-01-23
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21