微信扫码
添加专属顾问
我要投稿
AGI的实现仍面临持续学习这一关键瓶颈,当前AI更像是一次性学习者而非持续成长者。 核心内容: 1. 大语言模型缺乏人类式的持续学习能力 2. 现有AI训练方式与人类学习机制的本质差异 3. 短期难以突破的在线学习技术障碍
持续学习是一大瓶颈
“事情往往比你预期的慢,但一旦发生,又快得超出你的想象。”
— 鲁迪格·多恩布什(Rudiger Dornbusch)
在我的播客[1]中,我经常跟嘉宾聊到实现AGI(通用人工智能)的时间表。有些嘉宾认为还需要20年[2],而有些人则认为2年就够[3]。截至2025年6月,我自己的观点如下。
有时候人们会说,即使现在AI技术不再进步,当下的AI智能体也会比互联网带来的经济变革更加巨大。但我不同意这一点。现在的大语言模型(LLM)确实神奇,但《财富》500强企业之所以没有全面用它们改变业务,不是因为管理层保守,而是真的很难用这些AI智能体替代常规的人类工作,原因在于它们缺乏一些基础的能力。
在Dwarkesh播客,我算是“AI前卫派”,已经花了上百小时尝试为自己的内容制作流程打造各种小工具。可这些经历却拉长了我对AGI到来的预期。我曾尝试让LLM改写自动生成的播客文本,让它更易读;或让LLM从文字稿中选出适合发推的精彩片段;有时还试着逐段与AI共同写作。这些任务看起来应该很适合LLM,但实际效果只能给到5分(满分10分),虽说也挺了不起。
真正的问题是,LLM不像人一样可以随时间不断进步。缺乏持续学习的能力是个巨大瓶颈。LLM在许多任务上的初始表现可能比普通人强,但你无法有效地对它们提供高层次的反馈,从而改进和提升其表现。用户只能调整提示(prompt),但这远远不如人类员工日常学习和成长的方式有效。
人之所以能高效工作,不主要是靠纯粹智力,而是靠不断积累经验、自我反省错误,并在实践中持续优化效率。
就像教小孩吹萨克斯风,你会让她先试着吹,听听效果,再调整技巧。但现在教AI更像是:学生只吹一次萨克斯,吹错了你就把他赶走,然后写下详细的失败总结给下一个学生看。下一个学生接过笔记,直接尝试演奏查理·帕克的作品,失败后再完善笔记……如此循环。
这种方式显然不会奏效。再怎么精细的提示词,也不可能仅凭阅读说明就教会孩子吹萨克斯。但现在用户唯一能“教”AI智能体的方式只有这种。
当然,目前也有强化学习(RL)微调方式。但这并非像人类学习一样灵活、快速和自适应。我自己的视频剪辑师就是靠自主观察和实践,逐渐理解了我的偏好、观众的兴趣和工作流中的优化点,这种高效的成长绝非通过定制RL环境能够轻易实现。
或许我们可以想象更聪明的模型,能自主搭建强化学习环境,自己练习和提升技能。但这种方式听起来非常困难,而且我怀疑这种方法在不同任务间的通用性。目前还看不到明显的方法能在未来几年内让LLM拥有类似人类的在线持续学习能力。
不过,有时候LLM确实会在对话中“临时学习”。比如我和LLM合作写文章,刚开始它的建议总是很差。但当我明确指出它的问题并重新撰写之后,它的建议往往会逐渐变好。然而,这种“临时学习”只能维持短暂的上下文,一旦对话结束,这种细致的理解也随之消失。
或许更长的滚动记忆(像Claude Code的记忆总结功能)是一种简单的方案。但我认为这种压缩方式在文字之外的领域会变得脆弱,像教萨克斯风的例子一样,仅靠文字总结远远不够。
这也是为什么我不同意Sholto和Trenton在我播客上所说的话:
“即便AI技术进步完全停滞,模型仍然能够在短期内自动化几乎所有白领工作。”
我认为,如果现在AI技术停滞,最多只能取代25%的白领就业。确实,很多单独的任务可以自动化,但AI缺乏持续学习能力,难以真正全面取代人类员工。即使技术上能完成任务,也无法真正理解企业具体的偏好和上下文。
尽管我在短期内看淡AI对经济的颠覆性影响,但长期而言我极其看好。一旦我们解决持续学习的问题,AI智能体的价值会出现大幅飞跃。因为AI能够快速在整个经济领域部署并自主学习,更何况AI的学习成果能在多个实例之间同步,这很可能快速地导致超级智能的诞生,而无需进一步的算法突破。
但我也不认为我们会一觉醒来发现OpenAI宣布彻底解决了持续学习问题。我更倾向认为,我们会先看到一些不完美的初步方案,然后逐渐改进。我们将有充分的时间察觉到这种瓶颈的消失。
当我采访Anthropic的研究员Sholto Douglas和Trenton Bricken时,他们预测到明年底就能实现可靠的计算机自动操作,比如完整处理小型企业的税务事务。
但我对此表示怀疑,因为:
因此,我认为2028年左右能实现这种AI“税务经理”的功能是合理的预测。
不过也别全是泼冷水。o3或Gemini 2.5这样的模型已经展现出了真正的推理能力!它们能分解问题、自我反思,甚至自我纠正。这种能力的出现是巨大的突破,我们正逐步实现真正的智能。
我个人对AI发展前景持宽泛的概率分布观点,仍然认为我们有可能2028年就看到超级智能的出现,但我更具体的预测如下:
你可能会觉得奇怪,为什么我强调持续学习这么难,却又给出了7年这么短的预测。因为AGI发展的曲线呈现对数正态分布:它要么在这个十年内快速实现,要么在很长一段时间内停滞。毕竟计算资源增长无法无限持续,到2030年后,AI的进步主要依靠更难的算法创新,速度自然会变慢。
总之,我们的未来要么快速走向惊人的智能爆发,要么长期停留在缓慢的演进状态。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-07
刚刚,Karpathy 又造新词 :"细菌式编程"诞生记,兼论上下文工程演进史
2025-07-07
基于AI(LLM)和Playwright MCP(模型上下文协议)的测试自动化
2025-07-07
AI Agent 凭什么火?看懂 60 年软件演进史,你就明白了
2025-07-07
用子模优化法为DeepResearch生成多样性查询
2025-07-07
字节推出 Claude Code 和 Gemini CLI 替代品(我测试了)
2025-07-07
当微信支付开放MCP之后,我却有一点后怕。
2025-07-07
几个故事,理解AI Agent规划的不同实现方式
2025-07-07
「上下文工程」硅谷爆火,Karpathy亲自站台!提示工程瞬间失宠
2025-05-29
2025-04-11
2025-04-12
2025-04-29
2025-04-12
2025-04-29
2025-05-23
2025-05-07
2025-05-07
2025-05-07