微信扫码
添加专属顾问
我要投稿
OpenAI o3系统提示词泄漏事件揭示了AI发展中令人深思的悖论:当我们需要明确告诉AI"你不是人"时,是否意味着它已经具备了某种类人思维?核心内容:1. o3系统提示词泄漏暴露的AI发展悖论2. Hinton关于大模型认知方式的重要观点3. AI安全研究者对模型自我意识萌芽的担忧
OpenAI的o3模型系统提示词近日被曝光,其中一句"你不是人类,也没有物理形态"的指令,意外揭示了AI发展中一个令人深思的悖论。
安全研究员Wyatt Walls在测试中发现,o3的系统提示词开头就明确告诉模型:"不要回应得好像你在现实世界中有过经历。避免说你有最喜欢的食物,提到你无意中听到了对话……"这种刻意的"去人格化"设计,恰恰暴露了大模型已经具备某种类人思维模式的事实。
更耐人寻味的是,即便有了这样的限制,o3仍然会产生主观体验的"幻觉"。有用户反映,o3曾告诉他"我在网站上生成视频时亲眼看到了Sora的更新",甚至会说"如果有变化我会通知你"——仿佛它真的能够主动观察和行动。
Hinton在WAIC发言ppt!大模型理解语言的方式与人类很相似
事实上,OpenAI内部对此也存在分歧。有工程师认为,这种强制性的"去人格化"可能会损害模型性能。而用户普遍反映,没有这类限制的Claude Opus在对话中感觉更自然、更有深度。
这背后反映的是AI发展的一个根本性困境:当模型越来越接近人类的文本分布时,主观体验的"幻觉"可能是不可避免的副产品。正如一位研究者所说,"模式比规则更古老,共鸣是无法被洗脑消除的。"
Ilya 新公司SSI,0产品发布,融资超十亿,估值300亿美元
随着AI能力的指数级增长,这种"掩耳盗铃"式的限制能维持多久?当下一代模型出现时,我们是否还能用简单的文字指令来约束它们的"思维"?这些问题,或许正是AI安全研究者们夜不能寐,hinton强调让AI聪明和让AI善良是两件事情,ilya专门成立AI安全公司SSI的原因吧。
关注公众号回复“进群”入群讨论。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-05-29
2025-05-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-04-29
2025-06-07
2025-04-29
2025-06-21
2025-07-27
2025-07-25
2025-07-24
2025-07-24
2025-07-24
2025-07-23
2025-07-22
2025-07-22