2026年3月27日,来腾讯会议(限50人)了解掌握如何用Openclaw构建企业AI生产力
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

OpenAI 首席科学家:Codex 只是雏形,我们要造的是「全自动 AI 研究员」

发布日期:2026-03-21 18:54:10 浏览次数: 1521
作者:AGI Hunt

微信搜一搜,关注“AGI Hunt”

推荐语

OpenAI首席科学家揭秘:从Codex到「全自动AI研究员」的进化路线图,2028年或将实现颠覆性突破。

核心内容:
1. OpenAI将分阶段打造能独立处理科研项目的多智能体系统
2. 技术路径解析:从GPT迭代到推理模型的突破性进展
3. 2026-2028年具体里程碑:从「AI研究实习生」到完整解决方案

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

OpenAI 首席科学家 Jakub Pachocki 本周接受了 MIT Technology Review 的独家专访,透露了公司接下来几年的「北极星」目标:造一个全自动的 AI 研究员。

它并非聊天机器人,也不只是代码补全工具,它是一个能独立跑科研项目的多智能体系统,可以处理数学证明、生物化学难题,甚至商业和政策问题。

而且,重要的是,已经有时间表了。

北极星

Pachocki 的原话是:

我认为我们正在接近一个节点,模型将能够像人一样,以连贯的方式无限期地工作。当然,目标仍然由人来设定。但我觉得我们会到达这样一个阶段:你在数据中心里拥有一整个研究实验室。

这个愿景并不新鲜。

DeepMind 的 Demis Hassabis 2022 年就说过类似的话,Anthropic 的 Dario Amodei 说他要在数据中心里建一个「天才国度」,Sam Altman 更是直接放话要治愈癌症。

MIT Technology Review 文章首页
MIT Technology Review 文章首页

但 Pachocki 认为,OpenAI 现在已经具备了大部分所需的东西。

这话听起来确实有点大,不过……他给出了一个具体的路径。

Codex 只是起点

今年 1 月,OpenAI 发布了 Codex,一个基于 Agent 的应用,能自动生成代码来执行任务,分析文档、生成图表、做收件箱摘要等等。

Pachocki 说,OpenAI 大部分技术人员现在都在日常工作中用 Codex 了。

而他对 Codex 的定位,其实挺让人意外的:

你可以把 Codex 看作 AI 研究员的一个非常早期的版本。我预计 Codex 会从根本上变得更好。

换句话说,Codex 在 Pachocki 眼里,应该只是个雏形,一个起点。

Allen Institute for AI 的研究员 Doug Downey 也表达了类似的兴奋:

编程 Agent 的成功令人印象深刻。这自然引出了一个问题:我们能不能在编程之外,在更广泛的科学领域做到类似的事?

九月见

OpenAI 给自己定了两个节点。

2026 年 9 月:推出「自主 AI 研究实习生」,能独立处理一些需要人类花好几天才能完成的特定研究任务。

2028 年:推出完整的全自动多智能体研究系统,能解决对人类来说过于庞大或复杂的问题。

从 Codex 到全自动研究员的演化路径
从 Codex 到全自动研究员的演化路径

Pachocki 认为通往这个目标的路径,其实就是沿着当前的方向继续推。

他举了个例子:

从 GPT-3 到 GPT-4 的跨越,即使没有专门训练,GPT-4 在问题上持续工作的时间就已经远超 GPT-3 了。推理模型的出现又带来了一次跃升,让模型能一步步拆解问题、发现死路后回溯。

而现在,OpenAI 还在喂更复杂的任务样本给模型,比如数学和编程竞赛中的高难题目,迫使模型学会追踪大段文本、把问题拆成子任务并自己管理。

关键在于:让系统能自主运行更长时间。

Pachocki 的说法是:

我们真正在做的,是打造一个你可以把任务委派给它的系统,而这些任务是一个人需要花好几天才能完成的那种。

已有战果

这也不全是画饼。

最近几个月,研究人员用 GPT-5(也就是 Codex 背后的大模型)已经取得了一些实打实的成果:

  • 发现了多个未解数学问题的新解法

  • 在凝聚态物理中找到了新的理论框架

  • 帮助化学家提出了新的合成路径

  • 在蛋白质折叠相关的生物学难题上突破了几个看似走入死胡同的方向

Pachocki 说:

看到这些模型想出来的点子,可能博士生至少要花好几周才能想到,这让我相信这项技术在近期会带来更多加速。

不过他也坦承,这事还没板上钉钉。他理解为什么有些人仍然对这项技术的变革性抱有怀疑。

甚至他自己,一年前还不用代码自动补全呢。

我对代码非常挑剔,能手动在 vim 里一个字一个字敲的话,我就不用别的。

但最新的模型改变了他:

我可以让它在一个周末跑完实验,而这些实验以前要我自己写代码写一个星期。

我觉得它还没到我能放手让它来设计整个系统的程度。但当你看到它做了一件你要花一周才能做完的事,你确实没法反驳。

质疑

Allen Institute 的 Downey 对此持谨慎态度。

去年夏天,他和同事在一系列科学任务上测试了多个顶级大模型。GPT-5 排名第一,但仍然犯了不少错。

如果你需要把多个任务串在一起,那么连续做对每一个的概率往往会下降。

他也承认事情变化太快了,他还没测过最新的 GPT-5.4(两周前刚发布),所以「那些结果可能已经过时了」。

可靠性的复利效应对比
可靠性的复利效应对比

这个问题其实挺关键的。单步准确率从 90% 提到 95% 看起来没多大差别,但如果一个研究任务需要串联 20 步,90% 准确率意味着最终成功率只有 12%,而 95% 能到 36%。

全自动研究的瓶颈,可能不在单步智力上,而在可靠性的复利效应上。

谁来看住它

当被问到安全问题时,Pachocki 没有回避。

如果你相信 AI 即将大幅加速研究,包括 AI 自身的研究,那这是世界的一个巨大变化。它带来了一些严肃的未解问题:如果它这么聪明、这么能干,能跑完一整个研究项目……万一它做了坏事呢?

系统失控?被黑客攻击?还是……只是误解了指令?他列举了好几种可能。

Chain-of-Thought 监控流程
Chain-of-Thought 监控流程

OpenAI 目前最倚重的技术叫 chain-of-thought monitoring,简单说就是让推理模型边工作边「记笔记」,然后用其他 LLM 来审查这些笔记,在问题出现之前发现异常。

就在前一天,OpenAI 还发布了关于如何在内部用这项技术监控 Codex 的新细节。

Pachocki 认为,非常强大的模型应该在沙箱中运行,与任何它可能破坏或被利用的东西隔离。

在你能真正信任这些系统之前,你肯定需要有限制措施。

不需要全能

值得注意的,倒是 Pachocki 对 AGI 的看法。

在整个对话中,他只提了一次 AGI,而且马上换了个说法……改成了「具有经济变革性的技术」。

大语言模型和人脑不一样。它们在某些方面表面上类似于人,因为它们基本上是用人说话的数据训练出来的。但它们不是由进化塑造出来的,并不真正高效。

然后他说了句可能是全文最值得记住的话:

即使到 2028 年,我也不认为我们能造出在所有方面都和人一样聪明的系统。我觉得那不会发生。但我也不觉得那是必要的。有趣的是,你不需要在所有方面都和人一样聪明,就能产生巨大的变革。

这个判断,反而比那些喊着「明年就 AGI」的声音更让人觉得靠谱。

不追求全能,只追求在关键环节上足够强,然后用系统工程把这些能力串起来。

这可能才是通往「数据中心里的研究实验室」的真正路径。

而这条路上,最大的考验也许不是技术本身。

Pachocki 自己说了:

这将是一件非常奇怪的事。这是一种在某些方面前所未有的、极度集中的权力。想象一下,你有一个数据中心,能做 OpenAI 或 Google 整个公司能做的所有工作。过去需要大型人类组织才能完成的事情,现在只需要几个人。

几个人,一个数据中心,

一整个研究实验室。

这个未来,可能真的,比想象中会来得更快。




相关链接:

MIT Technology Review 原文:https://www.technologyreview.com/2026/03/20/1134438/openai-is-throwing-everything-into-building-a-fully-automated-researcher/

OpenAI chain-of-thought 监控报告:https://openai.com/index/how-we-monitor-internal-coding-agents-misalignment/


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询