微信扫码
添加专属顾问
我要投稿
美团新方法VSRM让大模型推理不再“过度思考”,在保持准确率的同时显著提升效率!核心内容: 1. 大型推理模型“过度思考”问题的本质与现有方法的局限 2. VSRM方法通过可验证的分步奖励机制优化推理步骤 3. 实验证明该方法在数学推理任务中减少55% token消耗且不损失准确率
大模型研习社
王哥儿
欢迎扫码关注
专注于大模型论文知识分享
要点总结
|持续学习、持续分享
一句话概括:VSRM通过可验证的分步奖励机制,像精准的"思维编辑"一样识别并优化推理过程中的有效步骤与冗余步骤,在保持数学推理准确率的同时将token消耗减少55%,从根本上解决大型推理模型的"过度思考"问题。
摘要:大型推理模型(LRM)在复杂推理任务上近期取得了显著进展,主要得益于可验证奖励的强化学习。然而,LRM 往往存在“过度思考”问题:在简单问题上耗费过多计算,降低整体效率。现有高效推理方法通常需要准确评估任务难度,以预设 token 预算或选择推理模式,这限制了它们的灵活性与可靠性。本文重新思考过度思考的本质,发现关键在于鼓励有效步骤、惩罚无效步骤。为此,我们提出一种新颖的基于规则的可验证逐步奖励机制(VSRM),根据推理轨迹中各中间状态的表现来分配奖励。该方法直观自然,契合推理任务的逐步特性。我们在 AIME24 和 AIME25 等标准数学推理基准上进行大量实验,将 VSRM 与 PPO 及 Reinforce++ 结合。结果表明,该方法在保持原有推理性能的同时,显著减少了输出长度,实现了效率与准确率的最佳平衡。进一步分析训练前后的过度思考频率与 pass@k 分数,证实本方法确实能有效抑制无效步骤、鼓励有效推理,从根本上缓解过度思考问题。
论文标题: "Promoting Efficient Reasoning with Verifiable Stepwise Reward"
作者: "Chuhuai Yue, Chengqi Dong, Yinan Gao"
会议/期刊: "arXiv preprint"
发表年份: 2025
原文链接: "https://arxiv.org/abs/2508.10293"
关键词: ["大型推理模型", "过度思考", "逐步奖励", "强化学习", "高效推理"]
近年来,大型推理模型(Large Reasoning Models, LRMs)如OpenAI O1和DeepSeek-R1通过测试时扩展(Test-Time Scaling, TTS)技术,在数学推理、代码生成等复杂任务上取得了突破。它们通过生成更长的思维链(Chain-of-Thought, CoT)来分解问题,探索多种解法,就像学生解题时"写草稿"一样。但这种"多多益善"的策略也带来了致命问题——过度思考(Overthinking):模型会为简单问题分配过多计算资源,不仅延长推理时间(有时甚至生成8000+token的冗余内容),还可能因思路混乱导致错误。
论文通过对500个数学问题的分析发现,超过60%的LRM输出包含无效步骤——这些步骤既不提升准确性,也不帮助探索新解法,纯粹是"自我怀疑"或"重复计算"。例如在求解"[-500,0]中有多少负整数"这样的简单问题时,模型可能生成8734个token的冗长推理,最终还得出错误答案(正确答案是500,模型却算成499)。
图2展示了模型在计算区间内整数数量时的过度思考:反复质疑"从-1到-500到底有多少个数",消耗大量token却得出错误结论。
VSRM的核心思想是赏罚分明:通过评估推理过程中每一步的实际贡献,奖励有效步骤、惩罚无效步骤,引导模型学会"该想时想,该停时停"。整体框架分为三个关键步骤:
首先,模型生成的完整推理轨迹(主轨迹)会被分割为多个子轨迹。分割依据是推理过程中的"自然断点"——论文发现LRMs在转换推理步骤时,常使用"因此"、"然而"、"接下来"等转折词(高熵标记),就像文章的段落分隔符。例如,将"问题重述→公式推导→结果验证"拆分为三个子轨迹。
对每个子轨迹,模型会生成多个候选答案,通过验证器(如DeepSeek-R1)计算平均准确率()。例如,某子轨迹若5次生成中有3次正确,则。
通过相邻子轨迹的准确率差异()计算奖励:
图3清晰展示了VSRM的工作流程:主轨迹(T)被分割为子轨迹(T1-Tk),计算各子轨迹准确率(A1-Ak),再通过差异(d1-dk)生成逐步奖励,最终结合结果奖励优化模型。
传统步骤分割依赖人工规则(如固定长度),而VSRM利用LRMs推理时的高熵标记(High-Entropy Tokens)——这些标记(如"因此"、"解得"、"考虑")在推理转折点出现频率显著高于随机文本。论文通过统计发现,包含这些标记的句子边界,子轨迹准确率差异()的绝对值比随机分割高37%,说明它们是"自然推理断点"。
分割步骤具体实现:
传统RLVR的奖励函数是"非黑即白"的(正确+1,错误0),而VSRM的逐步奖励函数则像"教练实时反馈":
这种设计解决了"奖励稀疏"问题——即使某一步本身无显著贡献,只要它为后续有效步骤铺路,也能获得间接奖励。
VSRM生成的逐步奖励()会与传统结果奖励()和格式奖励()结合,形成最终目标函数:
其中、,确保模型优先优化推理过程,同时不忽视最终结果和格式正确性。实验证明,VSRM与PPO结合(VSRM-PPO)在效率上更优,与Reinforce++结合(VSRM-R++)在复杂任务上性能略好。
论文在6个数学推理数据集(AIME24/25、MATH-500、AMC23、Minerva、OlympiadBench)上对比了VSRM与5种基线方法(LC-R1、ThinkPrune、AdaptThink等),核心指标为pass@1(准确率) 和平均token长度。
表2关键发现(以1.5B模型为例):
为验证各模块作用,论文设计了三组消融实验:
结果显示,传播衰减机制是VSRM的核心:移除后token压缩率从55%降至39%,证明其有效解决了奖励稀疏问题;而仅用结果奖励会导致准确率下降2.5%,说明过程奖励对保持性能至关重要。
为验证VSRM是否真正减少无效步骤,论文用DeepSeek-R1重新评估训练后模型的500个输出:
图4显示,VSRM模型在k=16时pass@16达82.3%,与原模型(82.4%)几乎持平,证明其在压缩长度的同时,保留了探索多种解法的能力。
●大模型自学不用数据了!腾讯 R-Zero 让模型互卷,在通用推理基准飙升超 7 分
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-24
如何将企业内部系统通过MCP与大模型Agent打通
2025-08-24
用了半年的MCP,它不是“USB-C”,而是企业AI落地的噩梦!
2025-08-23
从零开始做一个语义搜索引擎:基于LangChain与Qdrant的实战指南
2025-08-23
一文带你领略大模型上下文工程,AI应用的颠覆性变革
2025-08-23
白话上下文工程系列【一】--为什么需要上下文工程?
2025-08-23
大模型经常犯错才是大模型应用中最好玩,也是最有用的东西
2025-08-23
Embedding模型:AI如何“读懂”世界?
2025-08-22
从“问答工具”到“战略伙伴”:AI智能体如何改写商业规则?
2025-08-21
2025-05-29
2025-06-01
2025-06-21
2025-08-19
2025-06-07
2025-06-12
2025-08-21
2025-05-28
2025-06-19
2025-08-23
2025-08-23
2025-08-22
2025-08-22
2025-08-22
2025-08-22
2025-08-21
2025-08-20