2026年4月9日 周四晚上19:30分,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

美团发布原生多模态 LongCat-Next:当视觉和语音成为AI的母语

发布日期:2026-04-03 08:41:09 浏览次数: 1574
作者:美团技术团队

微信搜一搜,关注“美团技术团队”

推荐语

美团LongCat-Next突破性实现多模态统一建模,让AI真正拥有物理世界的"母语"。

核心内容:
1. 传统多模态模型的局限性分析
2. DiNA架构实现视觉、语音、文本的统一离散化表示
3. 原生自回归建模带来的三大根本性改变

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

物理世界的信息由图像、声音、文字交织而成。今天的大模型,本质上仍然是以语言为中心的建模系统,语言作为人类智慧符号化表述,在“压缩即智能”的范式下表现出强大的能力。但通往真正的物理世界智能,也许语言并不是世界的边界。视觉、语音与文本等多模态信号,实际上是对现实物理对象的不同侧面投影。

这就引出一个根本问题:能否让 AI 像处理语言一样,用同一种方式简洁有效地处理物理世界的多种信息? 如果能,那么物理世界的AI就有了统一的“母语”,Token 不再局限于文本而是成为描述一切物理信号的原生表示。对这些信号进行统一建模与压缩,可能使模型学到更加本质的表示,并实现更深层的模态内化。

LongCat 团队经过研究发现:在统一的建模框架与优化目标下,可以构造一种语义完备的离散表示。我们将图像、语音与文本统一映射为同源的离散 Token,使模型从学习连续空间的映射,转向学习离散 ID 之间的关系结构,并通过纯粹的下一个Token 预测(Next Token Prediction, NTP)范式,以一种统一的、优雅地方式建模各种物理信号。

LongCat-Next 是我们在通往物理世界 AI 道路上的一次探索。今天,我们把研究思路的核心——LongCat-Next 模型和它的离散分词器全部开源,希望更多开发者能基于它,构建真正能感知、理解并作用于真实世界的AI。



接下来,我们将逐一拆解三项核心技术,看看我们是如何让 AI 真正拥有物理世界的“母语”。



业界主流的多模态大模型长期受制于“语言基座+外挂视觉/语音模块”的拼凑式架构,非语言模态往往只作为辅助组件存在。这种设计带来很多结构性问题,比如图像理解与生成在结构与优化上长期割裂:前者依赖对齐机制,后者依赖扩散等独立模型,多模态信息始终停留在“被投影”,而非“被内化”。

为此,我们构建了 DiNA(Discrete Native Autoregressive )离散原生自回归架构。其核心非常简单:

|将所有模态统一为离散 Token,并用同一个自回归模型进行建模。

它将物理世界广泛存在的多模态信号收敛为同源的离散特征,实现了视觉、语音、文本多模态的底层建模统一。作为整个大语言模型体系的自然扩展,DiNA 彻底打破了模态间的隔阂。它通过极简的下一Token预测(NTP)范式,将图像、声音和文字统一转化为同源的离散Token。在这套原生的统一架构下,视觉的“看”与“画”、听觉的“听”与“说”,不再是拼接的异构模块,而是同一套预测逻辑的自然涌现。

简单而言:我们把文字、图像、语音都变成同一种东西——离散Token。无论读文字、看图片还是听声音,对AI来说都是同一件事:预测下一个Token是什么。

这个设计带来3个根本性改变:

  • 架构极简所有模态共享同一个自回归骨干,这意味着,无论输入的是文字、图像还是音频,模型都用同一套参数、同一个注意力机制、同一个损失函数。这种统一设计,让模型在训练时更稳定,部署时更轻量。我们用LongCat-Flash-Lite MoE(68.5B总参数,3B激活参数)作为基座,在这个框架基础上训练了LongCat-Next。实验表明,DiNA的MoE路由在训练中逐渐出现模态专精化,激活专家数量相比纯语言设置有所增加,模型正在用更大容量支撑能力扩展。

图1:LongCat-Next 架构概览,该架构基于DiNA范式设计


  • 理解与生成对称:LongCat-Next用同一个自回归模型同时实现了视觉理解和生成,通过这样解决了长期困扰的理解生成架构和优化不一致问题,在统一 Token 空间中,理解与生成被统一为同一数学问题,两者本质上都是条件下的 Token 预测:

        · 图像 → 文本:理解

        · 文本 → 图像:生成

    给定图像Token预测文字Token是“理解”,给定文字Token预测图像Token是“生成”——数学形式完全一致,从此不再割裂。实验证明,这种对称设计在优化上消弭了冲突:统一模型的理解损失仅比纯理解模型高 0.006,而生成损失比纯生成模型低 0.02。理解没有损害生成,反而表现出协同潜力。

图2:DiNA 框架下的视觉理解与生成交互

  • 模态内化:在离散原生训练范式下,不同模态被统一编码为 Token,并以相同方式建模。我们观察到:

         · 不同模态的 Token 表征在表示空间中自然融合(t-SNE 可视化)

         · MoE 专家自发形成模态偏好分化

    这表明模型并非在“对齐模态”,而是在内部形成统一的多模态表征结构。


图3:(a) MoE 专家模型在 DiNA 训练下表现出模态分化 

(b) LongCat-Next 的表征空间体现出更融合内化的模态间关系


如果说 DiNA 解决的是“如何统一建模”,那么 dNaViT 解决的是:

|如何让图像本身能够被离散化为可建模的 Token。

LongCat 团队首创的 dNaViT 技术相当于语言模型中的tokenizer(分词器)——就像把句子拆成单词,它把一张图拆解成一系列有意义的“视觉词汇”。

  • 原生任意分辨率支持(Native Resolution for Understanding and Generation):不做缩放、不裁剪、不填充,每一处细节都完整保留。通过我们精心设计的训练策略,dNaViT 实现了任意分辨率的图像编码与解码——在文档解析(OCR)、复杂图表推理等对细节敏感的任务中具备优势,如在 OmniDocBench、OCRBench 等密集文本场景的的测试中均表现优异。

  • 8层残差向量量化 (Residual Vector Quantization, RVQ): 细节多了怎么办?分层打包。类比于第一层打包轮廓,第二层打包颜色,第三层打包纹理……8层级联递归拟合“残差中的残差”,可以实现高达28倍极致像素空间压缩。解码时,DepthTransformer 将多级 Token 合并重建,让压缩与还原高效协同。

  • 解耦的双轨生成解码器  (Dual-Path Detokenization):离散token还原图像时,先由“结构像素解码器”保住布局,再由“扩散像素细化器”注入纹理细节。解耦设计降低生成方差,确保文本渲染无损清晰。

更妙的是,这套“视觉词汇”实现了 image → token → image 的完整回环——像语言tokenizer一样,既用于“看懂”图像,也用于“画出”图像。理解时学到的对应关系,生成时正好反过来用——图像描述和图像生成在同一套token序列中闭环流转。

更关键的是,在 LongCat-Next 中:

|视觉 Token 完成的是图像到离散ID的映射,真正的特征是原生学习的。

真正的视觉表征,是在语言模型内部通过 embedding 学习得到的。这意味着模型不是“接入视觉能力”,而是在内部学习并形成自己的视觉语言。

这种从“借用模态”到“内生模态”的转变,是原生多模态建模的核心。

图4:离散原生分辨率视觉 Transformer(dNaViT)设计概览

图5:LongCat-Next 的理解与生成案例


离散建模通常被认为受限于两方面:表征容量与离散化损失。然而,我们进一步分析发现,真正决定上限的关键在于:

|离散 Token 本身是否具备语义完备性(Semantic Completeness)。

也就是说,问题不在于“是否离散”,而在于离散后的表示,是否能够同时承载高层语义与细粒度信息(如颜色、纹理与空间结构),从而支撑统一的理解与生成。

基于这一视角,我们提出:实现语义完备离散表示的关键,在于构建合适的表征基础。其中,一类重要的候选范式是 SAE(Semantic-and-Aligned Encoder)。不同于以对比学习为主的模型(如 SigLIP),SAE 通过大规模视觉-语言监督(涵盖图像描述、视觉问答乃至视觉推理等任务),学习高信息密度、多属性的表征。这类表征不仅具备丰富的语义结构,同时我们发现在网络的残差传递机制下,底层视觉细节能够持续向高层传播,从而在抽象语义中保留细粒度信息,为离散 Token 的语义完备性提供基础。

在此之上,离散化过程本身仍需尽可能减少信息损失。为此,我们采用多级残差向量量化(Residual Vector Quantization, RVQ)机制,对表征进行逐级离散建模:通过层级化拟合“残差中的残差”,在有限离散空间内逼近高维连续表示,从而在压缩率与信息保真之间取得平衡。

最终得到的离散视觉 Token,不仅能够支撑细粒度理解任务(例如在密集文本识别中优于连续表征模型),同时也具备高保真的图像重建能力。这表明:

离散表示并非信息的退化形式,而可以成为统一理解与生成的完备表达载体。


图6:dNaViT 的分词器与解分词器训练流程



LongCat-Next 在视觉理解、图像生成、音频、智能体等多个维度上,以一套离散原生框架展现出与多模专用模型相当甚至领先的性能

更重要的是,这些成绩验证了三个关键发现:


图7:LongCat-Next 的基准测试性能


行业长期认为,离散模型在细粒度文本识别上必然不如连续模型,这也是一直阻碍业界使用离散建模作为选项的原因。值得一提的是,经过我们dNaViT的设计以及DiNA的建模框架,LongCat-Next表现出了非凡的细粒度感知能力和高质量的视觉推理能力。

LongCat-Next 在 OmniDocBench(学术论文、财报、行政表格)上的表现(0.152 / 0.226)挑战了这一刻板印象——不仅超越 Qwen3-Omni,还超过了专用视觉模型 Qwen3-VL。离散化不是细粒度感知的天花板,关键在于如何构建语义完备的离散视觉表征。

传统观点认为,一个模型很难同时做好理解和生成。但我们发现:消融实验对比中,LongCat-Next 统一模型的理解损失仅比纯理解模型高 0.006,而生成损失比纯生成模型低 0.02。在图像生成上,LongCat-Next 在 LongText-Bench(英文 93.15);在图像理解上,MathVista(83.1)达到领先水平,成为一个具备工业级潜力的理解生成统一方案。理解没有损害生成,反而表现出协同潜力。

 

在纯文本任务上,LongCat-Next 的 MMLU-Pro(77.02)和 C-Eval(86.80)表现领先,证明原生多模态训练未削弱语言核心能力。在工具调用上,τ²-Bench 零售场景(73.68)大幅领先 Qwen3-Next-80B-A3B-Instruct(57.3);在代码能力上,SWE-Bench(43.0)显著超越同类模型。

在音频领域,这一框架同样展现出良好的通用性。TTS任务上,SeedTTS的中文和英文WER分别低至1.90和1.89;音频理解上,MMAU(76.40)、TUT2017(43.09)均达到先进水平。更重要的是,模型支持低延迟的并行文本语音生成与可定制的语音克隆,让语音交互更自然、更个性化。

当模型学会用同一种方式理解图像、声音和文字,它在理解世界时变得更聪明了——无论是看懂图表、听懂语音,甚至是调用工具、编写代码。


case 1:

Fill in the question mark.



Okay, let's try to figure out the pattern here. There are three cross-shaped figures, each with a center number and four surrounding numbers (top, bottom, left, right). The first one has 38 in the center, with 18 top, 17 bottom, 9 left, 6 right. The second has 29 center, 12 top, 12 bottom, 8 left, 3 right. The third has 13 top, 8 bottom, 11 left, 7 right, and we need to find the center number.


First, I should check if there's a mathematical relationship between the surrounding numbers and the center. Maybe addition, multiplication, or some combination. Let's list out the numbers for each cross:

First cross:

Top: 18

Bottom: 17

Left: 9

Right: 6

Center: 38

Second cross:

Top: 12

Bottom: 12

Left: 8

Right: 3

Center: 29

Third cross:

Top: 13

Bottom: 8

Left: 11

Right: 7

Center: ?

Let me check sums first. For the first cross, sum of all four surrounding numbers: 18 + 17 + 9 + 6 = 50. But the center is 38, which is less than 50. Maybe not sum. Maybe sum of some pairs?

Top + Bottom: 18 + 17 = 35; Left + Right: 9 + 6 = 15. 35 + 15 = 50, still not 38. 35 - 15 = 20, nope. 35 + 15 divided by something? 50 / 1.315... Not sure.

Maybe multiply some numbers. Let's see: 18* something. 182=36, plus 2? Not sure. 94=36, plus 2? Hmm.

Wait, maybe top and bottom multiplied, left and right multiplied, then add or subtract. Let's try:

First cross: (18 * 17) + (9 * 6) = 306 + 54 = 360. Way too big. Center is 38. Maybe divide by something: 360 / 9.47 ≈ 38. Not obvious.

Alternatively, (top + left) * (bottom + right)? (18+9)(17+6)=2723=621. No.

Wait, maybe top minus bottom, left minus right? 18-17=1, 9-6=3. 1*3=3, not 38.

Another idea: maybe sum of top and bottom multiplied by something. 18+17=35. 35 + 3=38? Where does 3 come from? 9-6=3. Oh! 35 + (9-6)=38. Let's check that.

First cross: (18 + 17) + (9 - 6) = 35 + 3 = 38. That works!

Check second cross: Top + Bottom = 12 + 12 = 24. Left - Right = 8 - 3 = 5. 24 + 5 = 29. Which matches the center number 29. Wow, that seems to work!

Let me verify again.

First cross:

Top (18) + Bottom (17) = 35

Left (9) - Right (6) = 3

35 + 3 = 38 ✔️

Second cross:

Top (12) + Bottom (12) = 24

Left (8) - Right (3) = 5

24 + 5 = 29 ✔️

Perfect, that's the pattern. So the formula is: Center = (Top + Bottom) + (Left - Right)

Now apply this to the third cross.

Third cross:

Top =13, Bottom=8, Left=11, Right=7

Compute Top + Bottom: 13 + 8 = 21

Compute Left - Right: 11 - 7 = 4

Add them together: 21 + 4 = 25

So the center number should be 25.


case 2:

Analyze this image. Context: Gen = Generation; Und = Understanding. 'Scaled' represents a fair 1:1 token comparison. Is there any evidence that Understanding helps Generation?



Yes, there is evidence that "Understanding" (Unified) helps "Generation" (Pure-Gen.), particularly in the context of token efficiency and image loss reduction.


Let's break this down:


1. Main Graph: Image Loss vs. Tokens

The x-axis is Tokens (from 0B to 100B), and the y-axis is Image Loss (lower is better).

Three curves are shown:

Pure-Gen. (blue): Pure generation model.

Unified (orange): Unified model (combines understanding and generation).

Unified (unscaled) (light orange): Same as Unified, but scaled for fair token comparison.

Key Observations:

At low token counts (e.g., 0–20B tokens), all models start with high image loss, but Unified (orange) starts slightly lower than Pure-Gen. (blue), suggesting a small advantage.

As tokens increase, Unified (orange) consistently achieves lower image loss than Pure-Gen. (blue), especially after ~40B tokens.

The Unified (unscaled) curve (light orange) is very close to the Unified curve, indicating that scaling doesn’t change the relative performance — it’s just a fair comparison.

✅ Conclusion: The Unified model (which includes understanding) performs better than Pure-Gen. across most token ranges, meaning understanding helps generation.


2. Inset Graph: Zoomed-in View (40B–50B Tokens)

This shows a close-up of the region where the curves diverge slightly.

The difference (Δ = 0.0213) is explicitly marked between Pure-Gen. and Unified at ~48B tokens.

The Unified curve is below Pure-Gen., meaning lower image loss — better performance.

✅ This quantifies the benefit: Understanding provides a measurable improvement in image quality (lower loss) at higher token counts.


3. Interpretation: What Does "Understanding" Mean Here?

The term "Unified" likely refers to a model that jointly learns understanding (e.g., semantic or structural comprehension) and generation. In contrast, "Pure-Gen." is a model trained only on generation tasks.


So, when the Unified model outperforms Pure-Gen., it suggests that incorporating understanding during training leads to better generative performance — possibly by enabling more informed, context-aware generation.


✅ Final Answer:

Yes, there is clear evidence that Understanding helps Generation.

The Unified model (which includes understanding) consistently achieves lower image loss than the Pure-Gen. model across token counts, with a quantified improvement of Δ = 0.0213 in the inset graph. This indicates that integrating understanding into the model improves its generative performance, especially as token count increases.


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询