微信扫码
添加专属顾问
我要投稿
达摩院开源RynnBrain,首个支持移动操作的具身大脑基础模型,为机器人带来全局时空回溯和物理空间推理能力。核心内容: 1. RynnBrain的三大关键创新:时空记忆、物理空间推理和良好可拓展性 2. 在16项具身任务Benchmark上全面超越现有模型 3. 开源全系列模型、评测基准和完整代码,推动领域发展
摘要
具身智能蓬勃发展的当下,具有泛化性的具身能力至关重要。为了追求这个终极目标,业界发展出了两条技术路线。一条路线从机器人末端动作输出入手,发展出可以直接操作物理世界的VLA模型。但是VLA模型由于其数据稀缺性无法实现泛化。因此有了第二条路线,从本身拥有泛化能力的VLM入手,加速VLM从数字世界迈向物理世界。团队将在此路线上探索的模型称之为具身基础模型。
诚然,已经有一些研究开始了对具身基础模型的初步探索。例如,RoboBrain系列模型在单个视觉语言模型中统一了理解、定位和规划,以促进复杂的具身任务。Robix模型为任务执行期间更自然的人机交互做出了贡献。 然而,这些当前的具身基础模型动态认知受限,且普遍存在物理幻觉,难以适应人形机器人上的复杂任务。
主页:
https://alibaba-damo-academy.github.io/RynnBrain.github.io/
模型链接:
https://www.modelscope.cn/collections/DAMO_Academy/RynnBrain
今天,达摩院提出了其最新工作RynnBrain,首个可移动操作的具身基础模型。其具有以下三个关键要点:
1、时空记忆:RynnBrain能够在其完整的历史记忆中定位物体、目标区域,甚至预测运动轨迹,从而赋予机器人全局时空回溯能力。
2、物理空间推理:不同于传统的纯文本推理范式,RynnBrain 采用文本与空间定位交错进行的推理策略,确保其推理过程紧密扎根于物理环境。大大减弱了具身任务中的幻觉问题。
3、良好的可拓展性:团队在RynnBrain基础模型上微调了视觉语言导航和精准操作规划模型,效果轻松实现SOTA。
通过完备的实验,RynnBrain在16项具身任务Benchmark上全面超越了Cosmos Reason 2和Gemini Robotics ER 1.5等强大模型实现了SOTA,并且在8项域外Benchmark上验证了超越其他具身基础模型的通用泛化性。特别的,团队开源了业界首个MOE具身基础模型RynnBrain-30B-A3B,其只需要3B的推理激活参数就全面超越了当前规模最大的具身基础模型Palican-VL-72B。使用团队的MOE模型可以让机器人在保持最强大感知和规划能力的基础上拥有更加快速的动作响应和更加丝滑的行为模式。
为推动领域发展,同步开源:
✅ 全系列模型(含全尺寸基础模型与后训练专有模型)
✅ 全新评测基准RynnBrain-Bench(评测时空细粒度具身任务)
✅ 完整的推理与训练代码
RynnBrain首次实现了“大脑”对物理世界的深度理解与可靠规划,为大小脑分层架构下的通用具身智能迈出关键一步。期待它加速 AI 从数字世界走向真实物理场景的落地进程。
1、模型结构
RynnBrain在Qwen3-VL基础上进行训练。 使用自研的RynnScale架构对Dense模型和MOE模型均进行了训练速度的优化,使得在同等资源下训练加速两倍。在输入端RynnBrain可以接受任意分辨率的图片、多图和视频输入,满足用户任意形式的视觉输入的需求。同时RynnBrain可以输出区域、轨迹、点集、夹爪位姿、文本等多种具身相关模态,从而支持多样化具身任务的执行。
2、训练优化
RynnBrain是一款面向高泛化的具身基础模型,使用视频、图像和文本等多模态数据进行训练,覆盖从定位、空间感知等短任务到长篇多模态描述与复杂推理等多种场景。由于样本序列长度差异大且呈长尾分布,直接在数据并行训练中平均分配样本会引发“拖尾效应”,影响整体吞吐。
为此,团队引入在线负载均衡:训练时根据图像大小与文本token数预估序列长度,将同一DP组内样本统一重分配,使每个worker的累计序列长度尽量均衡,并用优先分配长序列的贪心策略在数据预取阶段快速完成,避免训练卡顿且无需额外数据预处理。
同时,由于重分配会造成各worker样本数不均,采用按样本的损失归约方式,保证训练前后损失一致性与收敛稳定,并显著提升训练效率。
在工程实现上,团队结合ZeRO、梯度检查点、输出token过滤等技术降低显存占用;在更大规模模型中引入ZeRO-2与专家并行(EP),并通过优化MoE 计算与跨卡分发提升吞吐。训练与推理框架基HuggingFace Transformers,并已开源。
要制造出一种能够与周围环境进行自然互动的通用型机器人,需要具备两项基本能力:一、时空记忆:通过历史视觉记忆,机器人必须建立涵盖空间、位置、事件、轨迹等多维度的表征,从而能够适应复杂多变的环境。二、忠实于物理世界:所有机器人的认知过程都必须从根本上扎根于物理世界的客观现实之中。本章主要介绍了RynnBrain的预训练,该方法正是基于上述两点见解而制定的。
1、训练策略
为赋予RynnBrain以上所述的时空记忆与物理世界落地能力,团队为此设计了一个统一的预训练框架,将多模态输入整合到共享的语义空间中。团队的训练方案聚焦于两大核心支柱:统一的输入输出表示,以及物理感知的优化策略。
统一的时空表示
为培养时空记忆,将图像与视频视为统一的输入模态。这样,RynnBrain能够在视频序列中学习时间因果关系与轨迹动态,这对于理解运动与事件至关重要。
根植于物理世界的输出空间
为实现物理世界,对输出空间进行严格形式化,以连接高层认知与低层执行。不同于标准视觉语言模型将数字作为自由文本处理,团队引入离散的坐标token来表示物理位置。团队将所有空间坐标归一化到固定区间,并用整数token表示。这种量化将连续的物理控制转化为离散的分类问题,使模型能够使用与语言生成相同的自回归机制输出精确位置(例如抓取点或导航目标)。
2、数据准备
团队为RynnBrain的预训练准备了两千万的数据对,具体数据细节如下:
通用多模态训练数据
复用团队自研的Video-Llama 3视频大模型的训练数据,并融合了LLaVA-OV-SI、LLaVA-Video等多个开源视频问答数据。
具身认知数据
物体认知、空间认知和计数相关数据复用了团队自研的RynnEC模型训练数据,并且引入了Sensenova-SI、VSI-590k、Molmo2等提高模型的空间理解和动态计数能力。此外,团队生成了100万对自我为中心的OCR问答数据,其中即有直接的OCR问题,也有需要识别视频中多个文字才能回答的情景问题。团队还收集了EgoRe-5M、Egotaskqa和RoboVQA等自我为中心的多样化问答数据以增强RynnBrain的自我为中心任务理解能力。
具身定位数据
RynnBrain拥有5项具身定位能力,分别为:物体定位、区域定位、操作点定位、轨迹定位和夹爪位姿定位。团队为每项定位任务标注了大量额视频以及图像数据,使得RynnBrain在室内的定位能力上拥有突出的泛化性。团队还用ADE20K、Grasp-Anything、PACO-LVIS等开源数据平衡整体数据集。
规划数据
规划任务包含导航和操作两类。导航使用了R2R和RxR数据和ScaleVLN的开源数据。并且将数据格式变成了流式的格式。操作规划数据源来自OpenX-Embodiment和AGIBot。首先,团队将这两个数据集中所有的规划数据都整合成时间段和子任务标注一对一匹配的格式。然后让人工标注出每个子任务规划中跟物体、区域和操作相关的名字。例如:“拿起香蕉放到桌子的左下角”,在这句话中与物体相关的词语是“香蕉”,与区域相关的词语是“桌子的左下角”,与操作相关的词语是“拿起”。然后人工再将这些词语和图像中的位置信息做对应,操作词语与图像中的操作点对应,物体词语与图像中物体的检测框对应,区域词语与图像中的区域点对应。最终得到文本和定位信息穿插的子任务标注数据。
1、物理空间推理模型
目前,大多数多模态推理模型采用纯文本推理范式。虽然一些方法通过工具使用(例如放大)来缓解视觉识别中的挑战,但这种推理范式存在泛化能力有限的问题,只能解决一小部分问题。此外,探索在推理过程中进行视觉想象的替代方法通常会受到生成图像中严重幻觉的困扰。
鉴于具身大脑在现实世界中运行,进行物理空间推理的能力变得至关重要。因此,在RynnBrain中,团队提出了一种交错推理方法,该方法将实体化与文本信息直接结合在以自我为中心的视频流中。这种范式有效地弥合了语言与物理世界之间的认知鸿沟,确保推理过程牢固地扎根于现实之中。下面详细介绍了RynnBrain在物理空间推理领域的贡献和探索。
团队设计了5类空间推理任务——计数、物体定位、操作点定位、区域定位和轨迹预测,来验证RynnBrain新提出的“文本-空间交织”推理范式。
训练策略:
团队采用组相对策略优化(GRPO)来使模型与物理空间推理任务对齐。不同于标准PPO需要价值函数来估计优势项,GRPO通过对同一提示下生成的多个采样输出的组内得分来估计基线。这显著降低了显存占用与训练复杂度。
训练从冷启动模型初始化。团队使用了SGLang推理引擎以高效生成rollout,组大小设为5。训练共进行10个epoch,batch size为128。采用余弦学习率调度进行策略优化,并进行3% 的warmup。为保证稳定性,团队将截断范围设为[0.2, 0.28],KL系数0.02。最大序列长度设为16,384个token,以适配长上下文的第一视角视频推理。
数据构建采用“AI生成+人工精标”策略:
从自采第一人称视频中抽取样本;
多模态大模型生成初步推理链,并用方括号标记关键实体(如“[白色花图案的墙纸]”);
由大语言模型初步分类实体为“物体”或“区域”;
人工标注员最终审核并精标:
对“对象”标注边界框,
对“区域”标注代表性点集,
并选择最清晰的视频帧作为参考帧。
所有定位结果以结构化格式<object/area><frame n>: ...; (coordinates)</...> 融入推理文本,实现语言与空间的对齐。
其中,计数任务特别强调“先定位再计数”,共构建 7万条高质量样本,显著提升模型在复杂场景下的时空感知能力。
2、视觉语言导航
导航任务采用与当前SOTA模型StreamVLN相同的数据设置。首先使用r2r rxr EnvDrop ScaleVLN数据在RynnBrain基础模型上做第一阶段训练。然后利用这个第一阶段模型在r2r rxr EnvDrop环境中采集Dagger数据。具体而言,使用第一阶段模型在r2r rxr EnvDrop的模拟器环境中进行导航,如果发现导航路径偏离了正确路径,则使用最短路径算法得到一个从当前位置到目标点的最短路径。因此,Dagger得到的导航数据可以有效纠正第一阶段模型的导航错误。使用Dagger数据团队可以进行第二阶段的训练得到最终的RynnBrain-Nav导航模型。
3、操作规划任务
由于预训练语料库包含了以规划为中心的数据,基础模型本身就具备了固有的规划能力。然而,要将这种能力应用于复杂的、长周期的操作任务,模型需要保持有效的记忆。为此,团队利用了一个小型的自采集数据集,其格式为多轮对话,其中交互历史充当了明确的记忆缓冲区,以保存历史推理结果。这种结构使模型能够将单个规划步骤整合成一个连贯的长周期策略。至关重要的是,为了与这种顺序推理相匹配,团队仅在每个对话轮的最后一步应用grounding标注,确保当前决策既取决于即时观察,也取决于累积的记忆。通过实验证明,这种方法具有很高的数据效率:仅使用几百个样本进行微调就足以使模型具备强大的长周期规划能力和泛化能力。
鉴于当前开源Benchmark在具身时空细粒度任务上的缺失。推出了RynnBrain这一多维度基准测试工具,用于评估时空细粒度具身能力。 该测试涵盖了四个关键维度:物体认知、空间认知、物体定位以及具身点预测,旨在突出对记忆视频序列中细粒度的理解以及时空的定位能力。
RynnBrain测评了20项具身相关的认知与定位Benchmark。在这些具身能力上,RynnBrain全面领先Mimo-Embodied等最先进的具身大脑模型,在许多能力上甚至有30%以上的涨幅。在具身领域之外的通用视觉理解方面,RynnBrain很好的保持了Qwen3-VL的强大通用视觉能力,甚至在AI2D、DocVQA等Benchmark上超越了Qwen3-VL。
2、后训练潜力巨大
导航后训练
团队使用当前的导航SOTA模型StreamVLN的训练数据微调RynnBrain模型。在没有进行任何架构改进的情况下RynnBrain-Nav比StreamVLN的导航成功率提高了2%-3%。在Qwen3-VL基础模型上利用相同的数据训练后发现,RynnBrain作为基础模型可以让微调出的导航模型能力提升5%。这充分证明了在具身相关任务中,RynnBrain的预训练作用巨大。
操作规划后训练
规划任务需要拥有强大的预测能力和场景解析力。只使用几百条数据微调之后RynnBrain-Plan-30B(A3B)即可在域内和域外的任务上全面超越Gemini 3 Pro。这充分体现了文本与定位交错的规划方式更加适用于多变复杂的物理世界。
👇点击关注ModelScope公众号获取 更多技术信息~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-10
超超超快无痛养虾,就来扣子编程部署OpenClaw!
2026-02-10
利用 MedGemma 1.5 与 MedASR 构建下一代医疗应用
2026-02-10
Openclawd评测:非技术用户真实体验(不黑不捧),以及背后隐藏的市场机会。
2026-02-10
字节开源GUI Agent登顶GitHub热榜,豆包手机核心技术突破26k Star
2026-02-10
OpenClaw 暴雷背后:Command Tools 如何终结 AI 的“配置地狱”(附教程)
2026-02-09
Virustotal对OpenClaw恶意技能(Skills)的跟踪分析
2026-02-09
ollama v0.15.6发布:上下文限制修复、自动模型下载、Claude环境变量优化、Droid与Qwen全面更新详解
2026-02-09
【开源】港大开源“纳米级OpenClaw”:超轻量AI助手,仅4000行代码复刻OpenClaw核心战力!
2025-11-19
2026-01-27
2025-12-22
2026-01-12
2026-01-29
2025-11-17
2025-12-10
2026-01-30
2026-01-28
2025-12-23
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16
2026-01-02