免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

OpenAI CEO 奥特曼:我已经准备好让ChatGPT看到我的所有数字生活,但是幼儿园不需要AI

发布日期:2026-01-27 19:52:43 浏览次数: 1517
作者:高飞的电子替身

微信搜一搜,关注“高飞的电子替身”

推荐语

OpenAI CEO奥特曼分享AI未来趋势:从个人数字生活到幼儿园教育,AI的边界在哪里?

核心内容:
1. 奥特曼对AI发展的最新预测与OpenAI战略调整
2. AI对软件工程行业的颠覆性影响与工程师角色转变
3. 关于AI应用边界的独特见解:从全盘接受到教育禁区

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

1月26日,OpenAI举办了一场面向开发者的Town Hall,CEO山姆·奥特曼用一个小时回答了十几个问题。没有发布新产品,但给出了不少硬信息:2027年底GPT 5.2级别智能降本100倍;OpenAI将"大幅放慢招聘增速";GPT-5的写作能力"我们搞砸了";如果今年AI出大问题,"生物可能是一个合理的赌注"。

OpenAI在2025年其实是有点逆风的。虽然搞了星际之门,但是总体风头被抢了不少。无论是Anthropic的Skills,还是Google Gemini的文生图,都让GPT的存在感大幅度减弱,内部据说也发了"Code Red"备忘录,红色警报吧。

也是因为这个原因,就整理了这期内容。当然,线上已经有很多类似内容了,但是我看了一下,要么翻译不够精致,要么一些背景缺失,还是值得在花点力气再搞搞。(当然,也不能保证没错误)

访谈中,山姆·奥特曼说他第一次用Codex(OpenAI的AI编程助手,可以在用户电脑上自主执行代码任务)的时候,信誓旦旦"绝不会给这个东西完全访问我电脑的权限"。然后他坚持了两个小时。"我就打开一小会儿看看会发生什么,然后就再也没关掉过。"他还说自己"已经准备好让ChatGPT看到我的整个电脑和整个互联网",不舒服感已经消失了。

但被问到幼儿园是否需要AI时,他的回答是:不仅不需要AI,连电脑都不应该有。"幼儿园的孩子应该在外面跑来跑去,玩实物,学习如何与彼此互动。"

其实,我好久没发奥特曼的内容了,所以这次,我就不写成Blog了,是完整的内容。

Part 1:AI对软件工程的影响

核心观点: 软件工程师不会消失,但"工程师"的定义将彻底改变。更多人将参与软件创造,但他们花在写代码、调试上的时间会大幅减少。GTM(市场推广)仍是最大瓶颈——AI让构建变容易了,但让人关心你的产品依然很难。

Jevons悖论(杰文斯悖论)与软件工程师的未来

问: 您如何看待软件工程领域的Jevons悖论(19世纪经济学家William Jevons提出:当技术进步提高资源使用效率时,该资源的消耗量反而可能增加而非减少)?如果AI让代码的创建变得更快、更便宜,那是会减少对软件工程师的需求,还是会因为定制软件成本大幅降低而大规模增加需求,让工程师们在未来几十年都有工作?

山姆·奥特曼: 我认为"工程师"的定义将发生重大变化。会有更多的人创造更多的价值、获取更多的价值——他们的工作是让计算机按自己的意愿运行,让计算机为他人创造有用的体验。但这份工作的具体形态,以及你花在写代码、调试代码上的时间,都会发生很大变化。

这种变化在工程领域已经发生过很多次了。每一次变革之后,至少到目前为止,都有更多人能够参与进来并变得高效,世界上也有了更多的软件。对软件的需求似乎完全没有放缓的迹象。

我对未来的判断是:我们中的很多人将使用专门为一个人或极少数人编写的软件,而且我们会不断定制自己的软件。所以会有更多人让计算机做他们想做的事,但方式与今天大不相同。如果你把这算作软件工程,那么我认为我们会看到更多这样的工作。而且我相信,世界GDP中更大的比例将以这种方式创造和消费。

GTM(Go-to-Market)仍是最大瓶颈

问: 作为消费者,我重度使用ChatGPT。我在Reddit上看到大家用Codex、Lovable、Cursor等工具构建各种东西。但似乎新的问题是GTM(市场推广)——我能构建这些东西,但如何找到能从中获得价值的人?这似乎成了瓶颈。

山姆·奥特曼: 在这之前,我曾运营Y Combinator(硅谷最具影响力的创业孵化器,投资过Airbnb、Dropbox、Stripe等公司),从创业者那里一直能听到一个一致的说法:我以为最难的部分是构建产品,但其实最难的是让任何人关心、使用它,或者建立连接。

我认为这一直都非常困难。只是现在构建变得如此容易,你会更强烈地感受到这个差距。

对此我没有简单的答案。我认为创建一家企业、找出差异化价值、让市场推广运转起来,这些古老的规则依然适用。AI让创建软件变得更容易,并不意味着其他事情也变得更容易。

不过我们开始看到,就像AI已经转变了软件工程一样,人们现在也在用它来自动化销售、自动化营销,而且会有一些成功案例。但我认为这将永远是困难的,因为即使在一个充裕的世界里,人类的注意力仍然是非常有限的资源。你将永远与其他人竞争,他们也在努力建立自己的市场推广能力和分销渠道。每一个潜在客户都很忙,还有其他事情要做。

所以我预期这会很难,你需要想出有创意的点子,构建出色的东西。

Part 2:Agent Builder与多智能体编排

核心观点: OpenAI不会垄断Agent界面的定义。正确的界面是什么、人们想怎么用,我们都不知道。模型能力与用户能获取的价值之间存在巨大且不断扩大的鸿沟——这是一个巨大的创业机会。

开发者在Agent编排领域是否安全?

问: 我是一名独立开发者,正在Codex SDK(OpenAI提供的编程接口,允许开发者在自己的产品中集成Codex能力)上构建一种编排多个Agent的方式。我想问一下你们Agent Builder工具的产品愿景。目前它主要是工作流和提示链。作为在Codex SDK上构建的开发者,我安全吗?你们是否会在多Agent编排方面留出空间,还是OpenAI会全部自己做?

山姆·奥特曼: 我们不知道什么是正确的界面。我们不知道人们会想如何使用它。我们见过人们构建出令人难以置信的多Agent设置,也见过人们构建出非常出色的单线程交互式对话。我们不会独自解决这个问题。

而且,不是每个人都想要同样的东西。有些人喜欢像老电影里那样坐在30块屏幕前,看着各种复杂的东西,到处移动;也有人想要在语音模式下进行非常平静的对话,每小时只对电脑说一次话,让电脑处理很多事情,而不是不断监督大量Agent。

人们只能尝试不同的方法,看看自己喜欢什么。世界可能会收敛到几种方式,但我们不会找出所有答案。

我认为构建工具来帮助人们高效使用极其强大的模型是一个非常好的想法。这是目前完全缺失的。这些模型能做的事情与大多数人能从中获取的东西之间的差距是巨大的,而且还在增长。 一定会有人构建工具来真正帮助你做到这一点。目前还没有人做对。我们也会尝试自己的版本,但这是一个似乎有很大空间的领域,人们会有不同的偏好。

如果你们有想让我们构建的东西,请告诉我们,我们可以试试。

Part 3:AI的经济与社会影响

核心观点: AI将带来大规模通缩。到今年年底,100-1000美元的推理成本+一个好想法,就能创造出去年需要一个团队花一年才能完成的软件。这应该是一种社会均衡力量——但如果政策搞砸,AI也可能集中权力和财富。

AI将带来大规模通缩

问: 目前由于工资差距,女性大约会损失100万美元的收入。我很好奇您认为AI如何能用来解决存在了几十年的经济差距?

山姆·奥特曼: 好消息是,虽然有很多复杂的问题,但有一点我认为基本上是好消息:AI将带来大规模通缩。

我在这个问题上有过反复。你可以想象一些奇怪的情况,比如世界上所有的钱都流入自我复制的数据中心。但从整体来看,考虑到你在电脑前可以做的工作已经取得的进展,以及机器人技术和其他领域即将发生的事情,我们将在经济中面临大规模的通缩压力。

我说"基本上是好消息",是因为在这个过程中会有一些复杂的事情需要应对。但除了那些由于社会或政府政策阻止的领域——比如在旧金山建造更多房屋——我预期这种变化会相当强烈且相当迅速。

个人能力的提升看起来会越来越高,无论社会是否以一种让他们自然拥有所有优势的方式来构建。我仍然很难理解这一点:到今年年底,花100或1000美元的推理成本,加上一个好想法,你将能够创建一个软件,这个软件在去年这个时候需要一整个团队花一年时间才能完成。

这种经济变化的规模,至少对我来说,很难理解。这应该是对人们非常赋能的事情——大规模增加的丰富性和获取途径,以及大幅降低的创造成本来做新事情、新公司、发现新科学等等。

我认为这应该是社会的一种均衡力量,是那些没有得到公平对待的人获得真正好机会的方式——只要我们不在政策上严重搞砸,而这是可能发生的。

我确实担心存在一些可能性,AI会真正集中权力和财富,防止这种情况发生应该成为政策的主要目标之一。

模型能力:通用化 vs 专业化

问: 您如何看待模型的专业化与通用化?GPT 4.5是第一个我认为真正擅长写作的模型。但最近有很多关于GPT-5在ChatGPT中写作变得有点难以阅读的讨论。而GPT-5显然是更好的Agent模型,工具使用、中间推理都很出色。感觉模型变得更加偏科了——编码能力飙升,但写作却退步了。

山姆·奥特曼: 我认为我们只是搞砸了那个。我们会让未来版本的GPT 5.x在写作方面比4.5好得多。

我们确实决定——我认为有充分的理由——在5.2中把大部分精力放在让它在智能、推理、编码、工程方面超级出色。我们精力有限,有时候专注于一件事就会忽略另一件事。

但我相信未来主要是关于非常好的通用模型。即使你试图做一个在编码方面真正出色的模型,如果它写作也很好,那不是更好吗?如果你试图让它能够为你生成完整的应用程序,你希望里面有好的文案。当它与你互动时,你希望它聪明、有洞察力、表达清晰。

所以我希望我们能在所有这些维度上推动未来模型变得非常好,我相信我们会做到。智能的通用性很强,我们可以让单一模型在所有这些方面都变得非常好。

现在确实似乎是一个特别重要的时期来推动我们称之为编码智能的东西,但我们也会尽快追赶其他方面。

Part 4:成本与速度的权衡

核心观点: 到2027年底,GPT 5.2级别智能的成本将降低至少100倍。但新的需求正在浮现:不是更便宜,而是更快。成本优化和速度优化是两个非常不同的问题。

到2027年底实现100倍降本

问: 您提到过"intelligence too cheap to meter"(智能便宜到不需要计量)。对我们来说,为客户运行数百万、数千万、数亿个Agent的限制因素是成本。您如何看待小模型和大幅降低成本?

山姆·奥特曼: 我认为到2027年底,我们应该能够以至少100倍更低的成本提供GPT 5.2级别的智能。

但还有另一个维度,我们历史上没有太多考虑,现在随着模型输出变得如此复杂,越来越多的人在推动我们:不是成本,而是速度。我们非常擅长降低成本曲线。你可以看看我们从第一个01 preview到现在的进展。

但我们没有太多考虑如何以相同的输出、也许更高的价格,但在1/100的时间内交付。对于你谈到的很多事情,人们真的会想要那个。

不幸的是,这是两个非常不同的问题,我们必须弄清楚如何在这两个优先事项之间平衡。但假设我们推动成本,假设这是市场想要的,我们可以在这条曲线上走很远。

Part 5:定制软件与个性化

核心观点: 软件正在从"静态产品"变成"动态个人工具"。我们将期望软件专门为自己编写、不断进化、适应个人使用习惯。OpenAI内部已经是这样了——每个人都有自己的定制工具。

软件正在变得个人化

问: 当前的界面不是为Agent设计的,但我们看到"为我构建的应用"正在兴起。为什么界面的定制化创新可以进一步加速微应用趋势?

山姆·奥特曼: 这是我最近使用Codex时注意到的一个变化:我不再把软件看作是静态的东西了。如果我有一个小问题,我期望电脑立刻写一些代码来为我解决。

我认为这种趋势会走得更远。我怀疑我们使用计算机和操作系统的整个方式都会改变。我不认为会是"每次你需要编辑文档,就会立刻为你写一个新版本的文字处理器"——因为我们非常习惯我们的界面,那个按钮在上次同一个位置是非常重要的。

但对于我们做的很多其他事情,我认为我们会发现我们期望软件专门为我们编写。也许我每次想用同一个文字处理器,但我确实有一堆重复的使用习惯,我希望软件越来越定制化。

这个想法是:我们的工具在不断进化,不断适应我们每个人的习惯——你使用它的方式和我使用它的方式不同。工具会越来越懂你,这件事似乎一定会发生。

在OpenAI内部,人们已经非常深入地将Codex用于他们的工作流程。每个人都有自己的小定制工具,使用方式也完全不同。

Part 6:创业者与开发者指南

核心观点: 判断一家创业公司是否健康的标准:如果GPT-6是一个惊艳的更新,你的公司会高兴还是难过?要构建那些"希望模型变得更强"的东西。Agent长时间自主运行不是"什么时候"的问题,而是"扩展范围"的问题——今天就可以在特定任务上实现。

为模型进步而高兴的公司才是好公司

问: 当创业公司的功能可以很快被模型更新取代时,开发者应该如何思考持久性?你们承诺不会吃掉技术栈的哪一层?

山姆·奥特曼: 我们之前稍微谈过这个。很容易假设商业的物理定律已经完全改变了,但它们还没有。它们可能会随着时间继续改变,但现在改变的是你可以更快地完成工作,可以更快地创建新软件。

但建立成功创业公司的所有其他规则——你必须找到获取用户的方法,你必须找到解决GTM问题的方法,你必须找到提供有粘性的东西的方法,有某种护城河、网络效应、竞争优势——这些都没有改变。好消息是,对我们也一样。

很多创业公司做了一些事情,也许在一个完美的世界里我们会更早做,但为时已晚,人们建立了真正持久的优势,这将继续发生。

我给人们的一般框架是:如果GPT-6是一个非常令人印象深刻的更新,你的公司会高兴还是难过? 我鼓励人们,因为我们会继续希望取得很大进展,去尝试构建那些你非常希望模型变得更好的东西。有很多这样的东西可以构建。

那些只是在弥补模型短板的产品,如果你能在模型升级之前建立起足够的优势,实际上仍然可以成功,但这是一条更艰难、更有压力的路。

Agent长时间运行的现实时间表

问: Agent能够长时间自主运行复杂工作流而不需要持续人工干预的现实时间表是什么?即使是简单的链上任务,5到10步之后也经常会崩溃。

OpenAI员工回答: 我认为这真的取决于任务类型。今天在OpenAI内部,我们看到有人以非常特殊的方式提示Codex。也许他们在使用SDK,所以这是一个定制的工具,不断提示它继续,但基本上是让它永远运行。

所以这不是"什么时候"的问题,而是"扩展范围"的问题。如果你有一个非常具体的、你非常了解的任务,今天就试试。如果你开始想"好,我想让模型帮我创办一家公司"——那是一个开放得多的问题,验证起来也难得多。

我鼓励你弄清楚如何把它分解成不同的问题,让Agent可以自我验证,然后在最后验证其最终输出,随着时间的推移,我们可以让Agent做越来越多更大的任务。

Part 7:创意与想法的质量

核心观点: 我们在工具的极限处思考。需要构建帮助人们想出好想法的工具——一个"Paul Graham(硅谷创业教父)机器人"。能发现新科学见解的模型,一定也能想出好的产品创意。

我们需要帮助人们想出好想法的工具

问: 您提到人类注意力是消费端的瓶颈。在生产端,对所有开发者来说,瓶颈是想法的质量。很多时候产品实际上不值得关注。那么什么工具可以提高人们想出来的想法的质量?

山姆·奥特曼: 世界上确实有很多人类生产的垃圾。提出好的新想法非常困难。

我越来越相信我们在工具的极限处思考。我认为我们应该尝试构建帮助人们想出好想法的工具。我相信有很多这样的工具。我相信随着创造成本继续暴跌,试错会变得极其便宜,我们会更快地找到好的想法。随着AI可以发现新科学,除了编写非常复杂的代码库,我确信会有一个全新的可能性空间。

但坐在AI面前(比如一个代理代码编写器)却不确定接下来要求什么,这是很多人报告的体验。如果我们可以构建工具来帮助你想出好想法——我相信我们可以做到。我相信我们可以看看你所有的过去工作和所有的过去代码,尝试弄清楚什么可能对你有用或有趣,并且可以持续建议。

如果我们可以帮助提供一个非常好的头脑风暴伙伴——在我的生活中有三四个人,我一直发现每次和他们相处后,我都会带着很多想法离开。他们是那种真正擅长问问题或给你种子让你去发展的人。Paul Graham(Y Combinator联合创始人,硅谷最具影响力的创业导师之一,以写作和指导创业者闻名)在这方面是超级厉害的

如果我们可以构建一个Paul Graham机器人,你可以和它进行同样的互动来帮助产生新想法,即使大多数是糟糕的,即使你对100个中的95个说绝对不行——我认为那将是对世界上构建的好东西数量的非常重大贡献。

模型感觉应该能够做到这一点。通过我们内部使用的一个特殊版本的5.2,我们现在第一次听到科学家说这些模型的科学进展不再是完全微不足道的了。我简直不敢相信一个可以想出新科学见解的模型,通过不同的工具和稍微不同的训练,不也能够想出关于要构建什么产品的新见解。

Part 8:科学研究与AI

核心观点: 完全自主的AI科研还很远。目前最佳模式仍是人类+AI协作——类似1997年Deep Blue击败卡斯帕罗夫后的那段"人机协作期"。模型在创造力、直觉、判断方面仍有明显短板,但没有原则性理由认为这无法突破。

人类+AI仍是当前科研的最佳组合

问: 作为一名科学家,一个科学项目往往会产生多个进一步研究的想法。这呈指数增长,而科学家只有线性减少的时间来执行。您认为模型会接管整个研究事业吗?

山姆·奥特曼: 我认为模型做真正完全闭环自主研究在大多数领域还有相当长的路要走。

我们可以看看数学这样的东西——它根本不需要湿实验室或物理输入。也许你可以通过非常努力地思考和不断更新模型来取得大量进展。但即使在那里,目前用模型取得最大进展的数学家仍然非常深入地参与,查看中间进展并说"不,这感觉不对,我有直觉在另一条路上有一些不同的东西"。

老实说,这感觉像是国际象棋历史上的那个时期——深蓝(IBM开发的国际象棋计算机)击败卡斯帕罗夫(当时的国际象棋世界冠军,1997年的人机大战是AI历史上的标志性事件),然后有一段时间,AI比人类更好,但一个人类加上AI,让人类从AI的10个走法中选择最好的,比单独的AI更好。然后很快,AI又变得更好,人类只是在让它变差。

我有点怀疑,对于像很多类型的研究这样的东西,随着时间的推移,类似的事情应该会发生。事情会变得如此复杂,AI可以比大多数人或所有人更好地理解多步骤的东西。

关于创造力、直觉、判断,有一些东西是我们现在这一代模型所没有的。我想不出任何原则性的理由为什么我们不会达到那里,所以我假设我们会。但今天我不认为只是说"嘿GPT-5 GPT-6去解决数学"会比几个非常优秀的人和它一起做数学,说"好这是个好方向,这是个好方向"要强。

生物安全是2026年AI最大风险之一

问: 我运营一家生物安全初创公司。您能谈谈安全在2026年路线图中的位置,以及您如何思考这些问题吗?

山姆·奥特曼: 2026年AI可能出错的方式有很多。生物是我们相当紧张的一个。模型在生物方面相当擅长,而现在大多数——不仅仅是OpenAI,整个世界的策略——是试图限制谁可以访问它们,放置一堆分类器来不帮助人们制造新型病原体。

我不认为这会持续太久。我认为世界需要做的转变,对于AI安全总体而言,特别是生物AI安全,是从阻止转向韧性

我的联合创始人Wojciech(Wojciech Zaremba,OpenAI联合创始人兼研究副总裁)使用这个我非常喜欢的类比,关于消防安全。火为社会做了所有这些美好的事情。然后它开始烧毁城市。我们试图做所有这些事情来限制火。我实际上刚刚这个周末才知道"curfew"(宵禁)这个词来自于你不再被允许生火,因为它们在烧毁城市。然后我们变得更擅长对火的韧性,我们想出了消防法规和阻燃材料以及一堆其他东西。现在我们作为一个社会在这方面相当擅长。

我认为我们需要以同样的方式思考AI。AI将成为生物恐怖主义的真正问题。AI将成为网络安全的真正问题。AI也是这些问题的解决方案。它也是很多其他问题的解决方案。

我认为我们需要一个全社会范围的努力,来提供这种韧性的基础设施,而不是我们信任的实验室总是阻止他们应该阻止的东西。世界上会有很多好的模型。

我们一直在与很多生物研究人员、公司交谈,讨论能够应对新型病原体需要什么。我认为有很多人对这个问题感兴趣,很多人报告说AI实际上似乎对此有帮助。但这不会是一个完全的技术解决方案。你需要世界以不同于我们现在的方式来思考这些事情。

所以我对现状非常紧张,但我看不到除了基于韧性的方法之外的其他路径。AI似乎真的可以帮助我们快速做到这一点。但如果今年AI出现明显的严重问题,我认为生物可能是一个合理的赌注。然后随着我们进入明年和后年,你可以想象很多其他事情也会出严重问题。

Part 9:AI与教育

核心观点: AI让学习变容易不是问题,问题是教学方式需要改变。人与人的联系在AI时代会更有价值而非更少。但幼儿园应该远离电脑——技术对幼儿的影响可能比对青少年更糟,只是讨论得更少。

人机协作与集体智能

问: 当AI模型变得越来越好,对于自学来说非常棒。但人类协作的作用是什么?如果你可以触手可及地得到答案,为什么还要花时间甚至摩擦去问另一个人?人类加AI呢?

山姆·奥特曼: 我比大多数人都老,但我在Google出来的时候还在上初中。老师们试图让孩子们承诺不使用它,因为有一种感觉,如果你可以触手可及地查找任何东西,那为什么还要来历史课?为什么要记住任何东西?

对我来说这完全是疯狂的。我想的是,有了这个工具我会变得更聪明,学到更多,能做更多。这是我成年后要一起生活的工具。不学它,就像明知道有计算器,还非要学算盘一样,毫无意义。

我对AI工具的感觉也一样。我理解在我们目前教孩子的方式中,AI工具是个问题。但我认为这表明我们需要改变教学方式,而不是假装不存在。

你仍然需要学会思考,写作,学习写作或写作的实践对于学习如何思考非常重要。但也许我们应该教你思考的方式和我们应该评估你思考能力的方式已经改变了,我们不应该假装不是这样。

我完全相信这会没问题。我们会找到新的方式来教学。

还有你说的另一件事,关于如何让这成为一件协作的事情,而不只是你一个人和电脑学习、表现、做着惊人的事情。我们还没有看到证据表明相反的情况,这是我们试图衡量的东西。

我怀疑在一个有大量AI的世界里,人与人的联系将变得更有价值,而不是更少。人们会更看重与其他人聚在一起、与其他人一起工作。但我们已经开始看到人们探索让这变得更容易的界面。

我的感觉是,虽然还没有人找到最佳方案,但AI会以一种其他技术做不到的方式促进人类协作。想象一下,五个人坐在桌子旁边,还有一个小机器人也在那里,你们作为一个团队会更高效,而且你会习惯这种模式。每次团队头脑风暴,每次解决问题,都会有一个AI参与,它会帮助团队做得更好。

幼儿园不需要AI

问: 作为一位父亲,您如何预见AI在幼儿园和中学这些真正形成期的教育变化?

山姆·奥特曼: 一般来说,我支持让电脑远离幼儿园。我认为幼儿园的孩子应该在外面跑来跑去,玩实物,试图学习如何与彼此互动。

所以我不仅不会在大多数幼儿园大部分时间有AI,我也不会放电脑。我认为在发育方面,我们仍然不了解技术对孩子的所有影响。有很多关于社交媒体对青少年影响的文章,这似乎相当糟糕。但我有一种感觉,不幸的是,很多技术对幼儿的影响更糟糕,而且相对谈论得很少。我认为在我们更好地理解这一点之前,也许我们不需要幼儿园的孩子使用大量AI。

Part 10:OpenAI的招聘与未来

核心观点: OpenAI计划大幅放慢招聘增速,但不会停止招聘。不要激进招人然后裁员——这是给所有公司的建议。未来的面试应该测试"用AI在20分钟内完成去年需要两周的任务"的能力。公司必须快速采用AI,否则会被全AI公司击败。

计划大幅放慢增长速度

问: LinkedIn上仍然有OpenAI的软件开发者职位。AI改变了面试过程吗?

山姆·奥特曼: 我们会继续雇用软件开发者,但我们第一次计划大幅放慢增长速度,因为我们认为我们将能够用更少的人做更多的事情。我知道每家公司和每家创业公司也在考虑这个问题。

我认为我们不应该做的,我也希望其他公司不会做的,是非常激进地招聘,然后突然意识到AI可以做很多事情,你需要更少的人,然后不得不进行某种非常不舒服的对话。

所以我认为正确的方法是更慢地招聘但继续招聘,并相信——我不相信有一天OpenAI会有零员工,但很长一段时间我认为我们只会有逐渐增加的人数做更多的事情。这大概是我预期整体经济的形态。

关于面试的样子,它还没有像应该的那样改变太多,但我今天在一个会议上,人们在讨论我们希望它如何改变。我们基本上想让你坐下来,做一些在去年这个时候对一个人来说不可能在两周内完成的事情,然后看他们在10分钟或20分钟内完成。

你想看到人们能够以这种新方式非常有效地工作。我认为软件工程面试已经糟糕很长时间了,可能不那么相关。但现在它们更不相关了。

公司全部AI化还是人机协作?

这些问题有几个暗示了一个更普遍的事情,那就是未来是公司不雇用很多人而有很多AI同事,还是赢得未来的公司完全是AI——比如一架满是GPU的机架而没有人?

我真的希望是前者。有很多原因为什么它可能更接近后者。但如果公司不积极采用AI,如果公司不弄清楚如何雇用那些会真正有效使用工具的人,他们最终会被一家不需要有那些阻止大公司使用AI的愚蠢政策的全AI公司击败。这感觉对社会来说会是非常不稳定的事情。

所以——我们一直在试图弄清楚如何谈论这个,因为对我们来说自己说这个听起来是自私的——但我认为公司以大的方式快速采用AI非常重要

Part 11:Agent的潜在风险

核心观点: 最被低估的风险是"梦游进入危险"。AI工具的便利性让人很快放弃监督,从"绝不给它完全访问权限"到"YOLO"只需要两小时。能力曲线急剧上升,但安全基础设施没有跟上——这是一个创业机会。

我们可能会"梦游"进入风险

问: 随着Agent开始越来越多地在生产系统中移动和运行,特别是大规模时,您认为最被低估的失败模式是什么?安全、成本、可靠性?

山姆·奥特曼: 到处都是问题。让我个人惊讶的一件事是——当我第一次开始使用Codex时,我说"我不知道这会怎么样,但我肯定不会给这个东西完全无监督地访问我的电脑。" 我对此非常有信心。然后我大概坚持了两个小时,然后我想"你知道,它似乎做的事情非常合理。我讨厌每次都要批准这些命令。我就打开一小会儿看看会发生什么。" 然后我从来没有关掉过完全访问权限。

我认为其他人也有类似的经历。所以我的普遍担忧是,这些工具的力量和便利性太高了,而出错的概率又太低——虽然一旦出错可能是灾难性的——我们会慢慢滑入一种"管他呢,应该没事"的状态

然后随着模型变得更强大,更难理解它们在做的所有事情,如果模型中有不对齐,如果有某种复杂的问题在几周或几个月的使用中出现,你在你做的东西中放入了某种安全漏洞——你可以对这条曲线有各种意见,关于你想让AI不对齐的科幻程度有多疯狂。

但我认为会发生的是,采用这些工具的压力、使用它们的压力——不仅仅是压力,还有它们的愉悦和力量——将如此之大,以至于人们会被拉入不够考虑他们运行这些东西的复杂性、他们如何确定他们设置的沙盒的状态。

我的普遍担忧是,能力将急剧上升,我们会习惯模型在某个水平上的工作方式并决定我们信任它们,而没有建立非常好的——我称之为大局安全基础设施——我们会梦游进入某种状况。

我认为那将是一个很好的公司来构建。

Part 12:技术债务与新技术

核心观点: 不用担心被旧技术栈锁定。模型会快速适应新技术——一个重要里程碑是:模型遇到全新的东西,探索一次就能可靠使用。这感觉不会太远了。

模型会快速适应新技术

问: 我很喜欢看到技术的构建块进化,我经历过一些疯狂的Web革命,比如转向TypeScript和Tailwind。但我的担心是,随着模型和工具变得更好,我们可能会被困在现在的方式中,就像美国的电网以某种方式建造,使事情变得更糟,我们真的无法改变它。我们现在是否在用现有技术建造基础,未来会更难替换?

山姆·奥特曼: 我认为我们真的会非常擅长让模型使用新东西。从根本上说,如果我们正确使用这些模型,它们就像一个通用推理引擎。我们现在架构事物的方式,它们也有大量的世界知识内置其中。但我认为我们正在朝着正确的方向前进。

我希望更新、使用新东西、比人类更快地学习新技能是一个接下来几年的事情。我们会非常自豪的一个里程碑是,当模型可以被呈现完全新的东西——新环境、新工具、新技术,你可以解释一次,或者模型可以探索一次,然后就超级可靠地使用它并做对。 这感觉不是很遥远。

Part 13:隐私与个性化

核心观点: 我已经准备好让ChatGPT看到我的整个数字生活了——价值太高,不舒服感已经消失。不想手动分组记忆;想要AI深入理解我生活的复杂规则,自动知道什么时候用什么、在哪里暴露什么。

我已经准备好让ChatGPT看到我的整个数字生活

问: 关于个性化和记忆,您如何看待这随时间的演变?还有,对于更精细的控制——比如分组记忆,这是我的工作身份,这是我的个人身份——有什么想法?

山姆·奥特曼: 我们会大力推动记忆和个性化。显然,人们想要它,它提供了更好的使用这些工具的方式。

我自己在这方面有过演变。但现在,我已经准备好让ChatGPT看到我的整个电脑和整个互联网,让它了解我的一切。它带来的价值太高了,我已经不再觉得不舒服。

我真的希望所有AI公司都非常认真地对待安全和隐私,我也希望整个社会如此,因为效用如此之大——AI将了解我的整个生活。我不会阻挡它。

我还没有准备好戴上记录一切的眼镜。我认为那仍然因为很多原因而不舒服。但我确实准备好说"嘿,你可以访问我的电脑,弄清楚发生了什么,对我有用,理解一切,有我数字生活的完美表示。"

我很懒。我认为大多数用户也很懒。所以我不想坐在那里分组——这是工作记忆,这是个人记忆。我想要的,我相信是可能的,是让AI对我生活的复杂规则、互动、层级有如此深入的理解,以至于它知道什么时候使用什么、在哪里暴露什么。

我们最好弄清楚这一点,因为我认为这是大多数用户想要的。

Part 14:AI时代最重要的技能

核心观点: 不是具体技能,而是软技能:高度自主、擅长产生想法、有韧性、适应快速变化。这些都是可以学习的——三个月的训练营可以让人在这些方面变得极其强大。

问: 您认为人们在AI时代应该学习的最重要的技能是什么?

山姆·奥特曼: 这些都是软技能。没有一个像"去学编程"那样明显——这在近期显然是正确的事情,但现在不是了。

但像变得高度自主、擅长产生想法、非常有韧性、非常适应快速变化的世界这样的技能——我认为这些将比任何具体的技能更重要。而且我认为这些都是可以学习的。

这是我做创业投资时的一个重要发现——我很惊讶,通过一个三个月的训练营,就可以让人们在这些方面变得极其强大。所以我认为这些是最重要的技能,而且它们是可以学习的。

结语:告诉我们你想要什么

山姆·奥特曼:非常感谢大家的到来和交流。我们真的想要你们的输入,告诉我们你们希望我们构建什么。

假设我们将拥有一个比当前模型强大100倍的模型,100倍的上下文长度,100倍的速度,100倍降低的成本,完美的工具调用,极致的连贯性——我们会达到那里的。告诉我们你们希望我们构建什么。

我们会留下来,如果你们说"嘿,我只需要这个API"或"我只需要这种原语"或"我只需要这种运行时"——我们是为你们构建的,我们想要做对。

感谢大家的到来。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询