微信扫码
添加专属顾问
我要投稿
论文笔记分享,标题A COMPARATIVE STUDY ON REASONING PATTERNS OF OPENAI’S O1 MODEL》,代码开源:https://github.com/Open-Source-O1/o1_Reasoning_Patterns_Study
OpenAI的o1模型在推理时候花费更多的时间,可以大幅提高LLMs的推理能力。然后呢,这篇文章就以gpt4o为基础,先论证一些推理时候的思考策略,然后分析o1的6种推理模式,最后是一些实验。
常见的推理策略
这些策略测试的结论结论:
然后是论证6种推理模式((Systematic Analysis (SA), Method Reuse (MR), Divide and Conquer (DC), Self-Refinement (SR), Context Identification (CI), and Emphasizing Constraints (EC))),o1最常用的推理模式是DC和SR。
系统分析(Systematic Analysis, SA):从问题的整体结构开始,o1首先分析输入和输出以及约束,然后决定选择算法和使用数据结构。
方法重用(Method Reuse, MR):对于一些可以转化为经典问题(如最短路径或背包问题)的问题,o1能够快速重用现有方法来解决它们。
分而治之(Divide and Conquer, DC):将复杂问题分解为子问题,并通过解决子问题来构建整体解决方案。
自我完善(Self-Refinement, SR):o1在推理过程中评估其推理过程,以确定是否存在问题并纠正任何错误。
上下文识别(Context Identification, CI):对于一些需要额外信息输入的数据集(例如HotpotQA),o1首先总结与查询相关的不同方面的上下文,然后给出相应查询的响应。
强调约束(Emphasizing Constraints, EC):对于一些对生成文本有约束的数据集(例如Collie),o1在推理过程中通常会强调相应的约束。
这几种模式在几个数据集上出现的频次如下,不同难度的数据,o1采用的推理模式会存在一定的差异。
最后是一些分析实验
对于BoN系列方法,需要一个策略来选择生成响应中最合适的响应。使用不同的策略进行实验,发现人工可以显著提高LLMs的准确率。除此之外BoN的性能受到N(生成响应的数量)的限制,增加N可以探索BoN能力的上限。
当前基准测试中包含许多简单的样本,无法区分不同 LLM 的性能差异。数据过滤后,不同 LLM 的分数相对较低,且区分度更大。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-01
零一万物联合开源中国推出OAK平台,目标打造Agent世界的“基础设施”
2025-11-01
Unsloth发布Qwen3-VL本地运行和微调指南,修复隐藏bug
2025-10-31
Google DeepMind揭秘:开源AI模型如何泄露训练秘方
2025-10-31
有人问我会不会用 AI,我直接拿出这个 Ollama + FastGPT 项目给他看
2025-10-30
开源可信MCP,AICC机密计算新升级!
2025-10-30
OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b
2025-10-29
刚刚,OpenAI 再次开源!安全分类模型 gpt-oss-safeguard 准确率超越 GPT-5
2025-10-29
AI本地知识库+智能体系列:手把手教你本地部署 n8n,一键实现自动采集+智能处理!
2025-08-20
2025-09-07
2025-08-05
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-08-06
2025-10-20
2025-08-22
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07