微信扫码
添加专属顾问
我要投稿
就在刚刚,奥特曼罕见发表长文,预言ASI将在「几千天内」降临。
Super Artificial Intelligence,SuperAI,ASI, 是由尼克·博斯特罗姆提出的。
尼克·博斯特罗姆(英语:Nick Bostrom,1973年3月10日)是一名出生于瑞典的牛津大学哲学家,以其在存在风险、人择原理、人类增强伦理学、超智能风险和逆转测试方面的工作而知名。2011年,他创立了牛津大学马丁未来技术影响项目,并且是牛津大学人类未来研究所的创始主任。2009年和2015年,他被列入《外交政策》的全球百大思想家名单。
博斯特罗姆发表了200多篇文章,并写了两本书,还与人合编了两本书。他撰写的两本书是《人类偏见:科学和哲学中的观察选择效应》(2002)和《超级智能:路径、危险、战略》(2014)。《超级智能》是《纽约时报》的畅销书,被伊隆·马斯克和比尔·盖兹等人推荐,并帮助普及了“超智能”一词。
博斯特罗姆认为,超智能,他将其定义为“在几乎所有感兴趣的领域都大大超过人类认知能力的任何智力”,是人工智能进步的一个潜在结果。他认为超智能的崛起对人类有潜在的高度危险,但他拒绝人类无力阻止其负面影响的观点。2017年,他联合签署了一份所有人工智能发展应遵循的23项原则的清单。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-30
Cursor 2.0的一些有趣的新特性
2025-10-30
Anthropic 发布最新研究:LLM 展现初步自省迹象
2025-10-30
让Agent系统更聪明之前,先让它能被信任
2025-10-30
Rag不行?谷歌DeepMind同款,文档阅读新助手:ReadAgent
2025-10-29
4大阶段,10个步骤,助你高效构建企业级智能体(Agent)
2025-10-29
DocReward:让智能体“写得更专业”的文档奖励模型
2025-10-29
沃尔沃RAG实战:企业级知识库,早就该放弃小分块策略
2025-10-29
大模型的Funcation Calling是什么?
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-17
2025-08-19
2025-09-29
2025-08-20
2025-10-29
2025-10-29
2025-10-28
2025-10-28
2025-10-27
2025-10-26
2025-10-25
2025-10-23