微信扫码
添加专属顾问
我要投稿
阿里千问最新AI技术突破,带你领略视觉推理的新境界。 核心内容: 1. QVQ-Max模型的超强观察力和深度分析能力 2. 创意无限的应用场景:视频旁白、图片解读、手相面相 3. 实际体验:惊艳的表现和便捷的使用方式
千问太高产了,今天3月 28 日,阿里千问在官方 X 账户上宣布其推出了视觉推理模型 “`QVQ-Max`”[1],这个模型不仅能看懂图片和视频,还能进行深度分析和推理(还能看首相~)。
QVQ-Max 能快速识别图片中的各种细节:
比普通的图像识别更厉害的是,它能把这些信息串联起来,理解图片想表达的含义。
上传一张图片,QVQ-Max 能给你:
除了看图分析,QVQ-Max 还能:
实测了两个有趣的场景:
上传了一段篝火旁的视频,QVQ-Max 立即写出了富有诗意的旁白:
暮色渐浓,篝火跃动的光斑在湖面上摇曳成星河。两人围坐于松针铺就的营地,剪影被暖橘色的火光勾勒出温柔轮廓。左侧的人缓缓倾斜银色保温壶,清亮的水流如月光倾泻,在深褐色杯盏中泛起涟漪;右侧的手稳稳托住杯底,指尖相触的瞬间,仿佛传递着无声的默契。远处森林静默如画,近处火星噼啪轻响,蒸腾的热气模糊了彼此眼眸。这一刻,天地间只剩跳动的火苗与流动的温度,将孤独融化成共享的暖意。
文字优美,意境深远,完美捕捉了视频的氛围。
当我们上传一张普通照片时,QVQ-Max 不仅能准确描述画面内容,还能理解场景背后的故事和情感。
算首相这个事可不是我说的哈,是千问自己提供的演示,看以下示例:
https://x.com/i/status/1905342270704156996[2]
想试试这个超强的视觉 AI 吗?现在就可以在 Qwen Chat(chat.qwen.ai[3])上体验。只需:
QVQ-Max 的发布,让我们看到了 AI 视觉能力的新高度。它不仅能看,还能想,更能创造。这或许预示着,AI 助手离我们的日常生活又近了一步。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-09
豆包「打电话」升级 Seeduplex:周围再吵,只认准你的声音
2026-04-03
美团发布原生多模态 LongCat-Next:当视觉和语音成为AI的母语
2026-04-02
全解读|智谱 GLM-5V-Turbo 发布,多模态 Coding 基模
2026-04-02
GLM-5V-Turbo:多模态Coding,图像即代码
2026-04-01
突破零样本TTS音色克隆上限:LongCat-AudioDiT 的声音克隆艺术
2026-04-01
千人千面,精控调色,更懂你的Wan2.7-Image来了
2026-04-01
震惊!即梦推出 CLI,Agent 一行命令生成 Seedance 2.0 视频,AI 视频井喷
2026-03-31
千问发布Qwen3.5-Omni全模态模型,超越Gemini3.1 Pro?附实测~
2026-04-01
2026-01-16
2026-02-12
2026-03-05
2026-01-22
2026-02-27
2026-02-12
2026-01-27
2026-03-11
2026-02-02
2026-03-12
2025-12-31
2025-08-04
2025-05-26
2025-05-13
2025-04-08
2025-04-05
2025-03-30