微信扫码
添加专属顾问
我要投稿
深入探索大模型“思考”的秘密,非技术人员也能轻松理解。 核心内容: 1. 语言层思考:模型如何显性表达思维路径 2. 结构层思考:模型如何内部处理信息 3. 大模型思考的未来发展与挑战
对于非技术人员来说,LilianWeng的这篇内容读起来稍微有点困难。
除却那些需要一直查询的技术细节,我一直在想,对于一个非技术人员,我最大的 take away是什么?
我觉得,如果只带走一个点,那就是——从不同的维度来理解模型是怎样思考的。
如果你曾对 ChatGPT 说过:
Let's think step by step
那么你已经在使用 “Token层面的思考”了。
这就是被称为 Chain-of-Thought(CoT) 的机制——在回答问题前,要求模型先“写下推理过程”。
比如这样?:
Q: 小明买了3个苹果,又买了2个,他有几个苹果?A: 首先他买了3个苹果,然后又买了2个,所以一共是3+2=5。
CoT 的本质,是让模型在语言中“显性地表达出自己的思维路径”。
研究发现,在数学题、逻辑题、代码任务中,加上这样的中间步骤,准确率会显著提升。
更进一步,研究者还发展出了:
- Parallel Sampling + Self-Consistency:一次生成多个思路,再投票选最靠谱的;
- Sequential Revision:让模型像人类一样,一步步自我反思、修改答案;
- 工具增强(如 ReAct、PAL):模型在“想的过程中”可以调用计算器、搜索引擎、代码解释器等外部工具。
可以说,Thinking in Tokens 是模型“说出它在怎么想”的开始。
这里有个很有趣的讨论,就是:模型写下的“思考过程”,到底是它真正在想的,还是写给我们看的?
模型也会欺骗我们,假装在思考。
但思考,并不总是要说出来的。
就像我们解决问题时,有时也只是默默地在脑子里推演,而不是把每一步写在纸上。
对应到大模型中,就是 Thinking in Continuous Space:让模型在内部结构上拥有“多想几轮”的能力。
研究者通过以下几种方式实现这一目标:
像 Universal Transformer、Block-Recurrent Transformer 这样的结构,允许模型在内部循环处理输入,控制“每个 token 要不要继续思考”。
人为地插入一些“无意义 token”,强迫模型在生成下一步前“多做一点计算”。
这些 token 像是模型的“停顿”或“深呼吸”,目的是获得更高质量的思维结果。
模型在生成每个 token 后,还要附上一句 “我为什么写这个”的 rationale;
这就像模型在边写边解释自己的每一步,形成“token级别的思维链”。
这一类方法更强调结构上的深度,使模型具备了更细致、更内省的计算路径。
‘思考’这个现象的本质是什么?
我们如何建立一个数学模型来描述它?
我们如何根据这个模型来训练AI,让它的‘思考’更有效、更接近我们期望的理想状态?”
研究者提出:可以把整个推理过程建模为一个概率分布:
P(y|x) = Σz P(z|x,y) P(y|x,z)
其中:
x = 输入问题
y = 最终答案
z = 思考过程(潜变量)
也就是说:同一个问题(x),可以有多个可能的思考路径(z),我们希望找到那些能导出正确答案(y)的路径。
- STaR(Self-Taught Reasoner):即使模型一开始答错,也可以反向生成“如果要答对,应该怎么想”,并从中学习;
- EM算法
一个非常现实的问题是:我们到底是要一个更大的模型,还是一个能多想一步的小模型?
答案是:两者并不是简单替代关系。
研究发现:
- 对于中等难度的任务,给小模型更多“思考时间”往往能弥补体量的差距;
- 但面对高难度任务,思考时间无法完全替代训练中获得的“认知能力”。
目前最佳策略是:训练一个足够强的 base 模型,然后让它“会慢想”。
这条通往“让模型思考”的路并不简单,还有很多待解的问题,比如:
- 如何训练出既可靠又真实的推理路径?
- 如何让模型真正在“想”,而不是为了奖励“装思考”?
- 如何根据任务难度,自适应分配“思考资源”?
- 如何在现实推理预算下(如时间、算力)取得最优效果?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-20
深度解析 Claude Code 在 Prompt / Context / Harness 的设计与实践
2026-04-20
AI大家说 | AI落地的实践分享:从大模型盈利到新工作方式
2026-04-20
大神 Karpathy 说破了大模型的真相:不是智力不够,是垃圾数据太多
2026-04-20
光会调 API 不够了:推理时计算正在成为 AI 竞争的新战场
2026-04-20
做原型不用Figma了?Claude Design 实测,一句话出交互原型
2026-04-20
十个顶级 Claude Code Skills,装上就不想卸
2026-04-20
跟着Karpathy用 AI 搭一个不会烂尾的第二大脑
2026-04-20
最强编程Agent不是Codex,也不是Claude Code,而是ChatGPT Pro
2026-01-24
2026-04-15
2026-01-23
2026-01-26
2026-03-31
2026-03-13
2026-01-21
2026-02-14
2026-02-03
2026-02-03