微信扫码
添加专属顾问
我要投稿
阿里云又来炸场了!他们刚刚开源了新一代视觉语言模型Qwen2-VL,而且一口气发布了20亿参数和70亿参数两个版本,还开放了最强720亿参数版本的API!这波操作简直6到飞起!?
看得清,看得懂: Qwen2-VL 在各种视觉理解任务上都取得了 SOTA 成绩,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等等。无论是图像分辨率还是长宽比,都难不倒它
20分钟长视频也不怕: Qwen2-VL 能理解超过 20 分钟的视频,可以用来做高质量的视频问答、对话、内容创作等等
可操作手机、机器人等的Agent: Qwen2-VL 还能跟手机、机器人等设备结合,实现自动操作!它强大的推理和决策能力,加上对视觉环境和文本指令的理解,让它成为真正的“智能管家”
多语言支持,全球用户都能用: 除了英语和中文,Qwen2-VL 现在还支持识别图像中的多种语言文本,包括大部分欧洲语言、日语、韩语、阿拉伯语、越南语等等,真正做到了面向全球用户!
70亿参数以下,Qwen2-VL 就是最强的! 而且,为了让 Qwen2-VL 能够在手机等移动设备上运行,阿里云还首次发布了 20 亿参数的小型视觉语言模型 Qwen2-VL-2B
博客:
https://qwenlm.github.io/blog/qwen2-vl/
GitHub:
https://github.com/QwenLM/Qwen2-VL
Hugging Face:
https://huggingface.co/collections/Qwen/qwen2-vl-66cee7455501d7126940800d
ModelScope:
https://modelscope.cn/organization/qwen
Qwen2-VL 成功的三个秘诀:
1.Naive Dynamic Resolution 支持: Qwen2-VL 可以处理任意分辨率的图像,并将它们映射成动态数量的视觉token,从而保证模型输入和图像信息的一致性。这就像人类的视觉感知一样,无论图像清晰度或大小如何,都能轻松识别
2.多模态旋转位置编码(M-ROPE): 通过将旋转位置编码分解成时间、空间(高度和宽度)三部分,M-ROPE 使 LLM 能够同时捕捉和整合一维文本、二维视觉和三维视频的位置信息,让模型更全面地理解多模态信息
3.数据为王! Data is all you need
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-05-11
对话OpenClacky李亚飞:把Harness做透,Token账单就不是问题了
2026-05-10
Claude 的金融 Skills 开源了
2026-05-07
本地4B开源模型,把任何App当Skill用!告别token焦虑,私密性强~
2026-05-07
Browser Use 0.12 杀疯了!弃用 Playwright,token 用量减半
2026-05-07
本地部署这件事,终于被国产开源AI做明白了!
2026-05-07
多模型管理太麻烦?手把手教你本地搭建这个开源 AI 网关!
2026-05-06
Ollama 换引擎,苹果 M5 封神了
2026-05-06
DeepSeek V4 Pro桌面应用来了:1.6T参数,MIT协议开源
2026-03-30
2026-04-03
2026-03-23
2026-04-09
2026-03-31
2026-02-14
2026-02-18
2026-03-03
2026-02-22
2026-04-01
2026-04-22
2026-04-21
2026-04-15
2026-04-09
2026-04-01
2026-03-17
2026-03-13
2026-03-02