微信扫码
添加专属顾问
我要投稿
蚂蚁金服开源Ming-UniVision模型,一个模型搞定图像理解、生成与编辑,彻底告别散装方案!核心内容: 1. 模型首次实现理解与生成的原生融合,支持看图说话、文生图、图修图等多项功能 2. 两大技术突破:统一空间加速训练3.5倍,多轮互动实现无缝视觉对话 3. 配套开源统一视觉标记器MingTok,提供完整解决方案
之前的视觉模型:理解与生成用一个模型,编辑图像得换另外一个,是不是很散装?在Qwen上就是如此。今天,蚂蚁金服开源的Ming-UniVision带来了完整解决方案,一个模型全部搞定。Ming-UniVision-16B-A3B,16B大小,3B激活,速度应该比较快。
它不仅首次在连续统一表示空间中实现了理解与生成的原生融合,同时开源了配套的统一连续视觉标记器MingTok。这意味着它不仅能看图说话,文生图,图修图甚至还能进行深入的图像推理。
案例
首先我们看看图像生成
这个是可视化推理过程,比如使人变成笑脸,就是先推理找到要编辑的嘴部,然后编辑对应部位。
图像编辑功能,保持一致性的同时进行部位编辑,简直复刻google nanobanana!
技术亮点
亮点1: 统一的空间能解锁超快的训练。
通过减轻视觉和绘画之间的“表征竞争”,Ming-UniVision 在文本到图像任务上的收敛速度提高了 3.5 倍以上。更少计算,相同性能。
亮点2: 真正的魔力发生在多轮互动中。
传统模型在每次编辑时都会陷入缓慢的“潜在→像素→特征”循环中。Ming-UniVision 实现了直接的 Feature →循环。这意味着无缝且有状态的视觉对话,生成->编辑->重新生成,全部在相同的高保真环境中进行。
开源地址
探索代码,尝试模型,并与我们一起构建!
GitHub:
https://github.com/inclusionAI/Ming-UniVision
HuggingFace:
- MingTok Tokenizer:
https://huggingface.co/inclusionAI/MingTok
- VisionMing-UniVision:
https://huggingface.co/inclusionAI/Ming-UniVision-16B-A3B
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-29
DeepSeek-V3.2背后的国产算子编程语言TileLang是什么?如何保持性能领先的同时减少6倍代码量?
2025-09-29
DeepSeek-V3.2-Exp开源,附论文细节解读!
2025-09-29
独家 | 帆软首次掀起盖头,万字访谈揭密BI巨头的出海之路
2025-09-29
2 分钟搞定官方文档没写的隐藏功能?99%的人还没掌握这种AI学习法!
2025-09-27
一招搞定知识库的文档分级分类,Dify可以这么做
2025-09-27
N8N全面解析:优势、短板与适用场景
2025-09-24
云栖大会阿里掀桌子了!Qwen3-Max、VL、Omini、Agent ... 统统发布!
2025-09-24
阿里发布Qwen3-VL:开源多模态登顶 SOTA
2025-07-23
2025-08-20
2025-09-07
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-07-12
2025-07-31
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07
2025-09-01
2025-08-16
2025-08-13