免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

从尝鲜到规模化:OpenAI 总结了企业 AI 落地的 5 个关键动作

发布日期:2026-05-12 02:00:34 浏览次数: 1519
作者:机智流

微信搜一搜,关注“机智流”

推荐语

从“要不要上AI”到“能不能承接AI”,OpenAI揭示企业将AI从尝鲜工具变为稳定生产力的五大关键。

核心内容:
1. 构建AI文化:从高层到一线,让组织具备AI素养与安全边界
2. 治理作为加速器:让合规、法务部门前置参与,而非事后审核
3. 从试点到规模化:明确AI规模化落地的关键路径与行动

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

过去一年,很多公司都在问:我们是不是该上 AI?现在这个问题已经不够用了。更准确的问题应该是:我们有没有能力承接 AI?

上 AI 很简单,先买账号,开权限,拉一个群,组织几场 prompt 培训。老板很快开始期待:效率是不是该翻倍了?人力是不是能省了?业务是不是可以自动跑起来了?

结果往往有点尴尬。

员工确实开始用了。会议纪要快了一点,邮件润色顺了一点,PPT 初稿也能丢给 AI 了。可再往下问:它有没有进入核心流程?有没有稳定提高业务结果?有没有形成一套可复用的组织能力?很多公司就沉默了。

今天,OpenAI 发布了一份企业 AI 指南,标题是 How enterprises are scaling AI[1]。这份指南基于 Philips、BBVA、Mirakl、Scout24、JetBrains、Scania 等欧洲企业领导者的访谈,讨论的是一个很现实的问题:企业到底怎么把 AI 从尝鲜工具,变成稳定的生产力系统?

在这份指南里,OpenAI 提出了 AI 规模化落地的 5 个关键动作。

一、先让组织有 AI 文化

OpenAI 总结的第一个关键动作是 Culture before tooling,先有文化,再谈工具。

Philips 的案例很典型。它是一家横跨医疗和科技的大公司,员工超过 7 万人。对这种公司来说,AI 不只是某个部门的小工具,它会影响临床质量、患者体验和内部流程。

所以 Philips 没有一上来就把 AI 包装成专家技能,而是先做 AI literacy,让更多人理解 AI 能做什么、不能做什么、该怎么安全尝试。他们先培训高级管理者,再让一线团队提出真实场景里的用法。

很多公司做 AI 培训,习惯从“教员工写 prompt”开始。这个当然有用,但它只能解决表层问题。真正影响采用率的,是员工有没有信心、有没有安全边界、有没有空间把 AI 用在自己的工作里。

如果一个员工心里想的是“我用了会不会出错?出错算谁的?公司到底允不允许?”,那他大概率只会拿 AI 做一些无关痛痒的事:润色邮件、总结公开资料、写点没人认真看的周报。

这不是工具能力的问题,是组织还没有给 AI 进入真实工作的条件。

二、把治理做成加速器

很多人一听到治理、合规、法务,就觉得这是 AI 创新的阻力。

OpenAI 在 BBVA 的案例里给了一个相反的答案:治理如果设计得好,反而会让团队跑得更快(Governance as an enabler)。

BBVA 是全球银行,天然处在高监管行业。它不可能像一个小团队那样,看到新工具就直接开干。安全、法务、合规、IT 都绕不开。

但 BBVA 的关键做法是:这些部门从一开始就参与设计,而不是等产品做完之后再来审核。

很多企业 AI 项目最痛苦的地方,是业务团队先兴冲冲做了一个 demo,准备上线时才发现合规不同意、数据不能这样用、权限边界没想清楚。于是项目被打回,大家互相埋怨。

BBVA 反过来做。先把边界画清楚,再让团队在边界内跑。

OpenAI 提到一个具体数据:BBVA 在秘鲁做的内部助手,被 3000 多名员工采用,把平均查询处理时间从大约 7.5 分钟降到 1 分钟左右。

这不是“AI 很酷”的展示,而是一个非常朴素的信号:AI 真的改善了每天都要发生的工作。

当员工发现它能解决真实问题,而且公司已经把安全边界处理好,采用率自然会上来。更进一步,BBVA 现在正在把 ChatGPT Enterprise 推向全球 12 万多名员工。

这背后不是一次工具采购,而是一套组织信任机制。边界越清楚,团队越敢用;责任越清楚,速度反而越快。

三、让团队重新设计工作

OpenAI 总结的第三个模式是 Ownership over consumption。这句话有点绕,意思却很简单:不要只把员工当 AI 消费者,要让员工成为流程改造者

很多公司的 AI 推广,停在“人人都可以用”这一层。听起来很民主,但它不一定能带来深层改变。员工只是把 AI 当成一个外部工具:原来怎么工作,现在还是怎么工作,只是在某些步骤里问一下 AI。

这就像给一辆老车装了一个新导航,确实方便了一点,但车本身还是那辆车。

Mirakl 是一家法国起家的企业级电商技术公司,成立于 2012 年,核心业务是帮助零售商、品牌商和 B2B 企业搭建 marketplace、dropship、商品目录管理、广告和支付等电商基础设施。

所以 Mirakl 的 AI 落地场景很重:商品目录要接入,客服要提效,内部技术文档要持续维护,供应商和平台之间有大量重复但不能出错的流程。

Mirakl 不只是推动员工使用 AI,而是给团队工具和自主权,让他们自己构建 Agent,重新设计工作流

结果也很具体:

  • 内部技术文档创建速度提升 70%
  • 客服效率提升 37%
  • catalog onboarding 加速 91%
  • 客户满意度保持在 96%,错误率大约降到原来的一半。

这些数字背后的重点,不只是“AI 提效了多少”。它说明 AI 已经进入了业务流程

技术文档、客服、商品目录接入,这些都不是单点小任务。它们是公司每天反复发生的工作链条。AI 一旦进入这种链条,价值就不再是帮某个人省 10 分钟,而是改变整个系统的运转方式。

很多公司真正缺的,是重新设计工作的勇气

四、先定义什么叫好

Scout24 的案例特别适合给所有急着上线 AI 产品的团队泼一盆冷水。

它做的是 AI 房产搜索。这个场景听起来很适合 AI:用户用自然语言描述需求,AI 帮你理解、筛选、推荐。

但 Scout24 没有急着把功能推给所有用户。OpenAI 提到,他们投入了大量精力做评估,建立自定义测试框架,还参考了 OpenAI Evals 的思路,通过内部测试找边界、校准信任。质量没达到标准,功能就延迟发布。

Quality before scale,这句话很普通,但在 AI 时代其实很稀缺。

现在很多 AI 产品喜欢先上线,再说自己会持续优化。问题是,某些场景里用户不会给你太多第二次机会。房产搜索、医疗、金融、代码生成、客服决策,都是这样。

AI 的问题往往更隐蔽:看起来合理,但其实错了;语气很自信,但依据不稳;流程跑通了,但结果偏了。

所以 Scout24 的经验可以总结成一句话:质量不是规模化之后自然出现的东西,它需要在规模化之前被定义清楚

如果一个公司连“什么叫好”都说不清楚,接入 AI 以后,只会更快地产生一堆不知道好不好的东西。

这也是为什么 eval 会越来越重要。

以后企业用 AI,不会只问模型能不能回答,还会问:它在我们的场景里准不准?错的时候能不能被发现?哪些输出必须人工复核?质量低于什么标准就不能上线?

这些问题听起来不性感,但它们决定 AI 能不能真正进生产。

五、保护人的判断力

最后一个关键动作来自 JetBrains 的案例。

这家公司做开发工具,所以它看 AI 编程会比很多人更冷静。OpenAI 在指南里提到,JetBrains 并没有只把 AI 当成“生成更多代码”的机器。

因为开发者不只是写代码。开发者还要 review,要推理,要设计系统,要考虑可读性、可维护性和长期质量。

JetBrains 的观点很清楚:AI 应该支持这些高阶判断,帮助人把时间放在更有价值的决策上(Protecting judgment work)。

这点我觉得很关键。

现在谈 AI 提效,很容易滑向一个粗暴指标:更快,更多,更省人。但很多知识工作真正值钱的部分,不是产出速度,而是判断质量。

一个程序员的价值,不只是敲出多少行代码,还包括知道哪些代码不该写。一个产品经理的价值,不只是写多少需求文档,还包括判断什么需求值得做。医生、律师、分析师、研究员,也都是这样。

AI 可以帮人处理大量低价值步骤,让人从重复劳动里出来。但如果公司只把 AI 当成吞吐量机器,最后可能会得到一种很糟糕的结果:内容更多了,判断更少了;代码更多了,系统更脆了;决策更快了,但没人真正负责。

OpenAI 在指南里指出一个方向:企业正在从 individual productivity 走向 workflow-level automation,再走向 agents,同时保留 human oversight。也就是,从个人效率,到流程自动化,再到智能体协作,但人的监督和责任不能消失。

这才是企业 AI 的关键平衡。

真正的分水岭,是谁能把 AI 变成组织能力

OpenAI 还配套了一份 PDF AI 落地指南[2] 里面用了一个词:capability gap(能力鸿沟)。意思是,AI 模型本身已经跑得很快,但大多数组织把 AI 变成稳定结果的能力,还没跟上。

过去两年,AI 叙事的中心是模型能力。谁的模型更强,谁的上下文更长,谁的推理更好,谁的代码能力更猛。

但今天,企业规模化落地 AI 的关键,已经从模型能力转向组织能力

OpenAI 在指南里反复强调三个词:trust、ownership、quality。翻译成人话就是:

  • 员工敢不敢把重要工作交给 AI?
  • 团队有没有权力改造自己的流程?
  • 公司知不知道 AI 输出什么才算好?

如果这三个问题没有答案,AI 用得越多,组织反而越容易乱。

这件事对大公司重要,对小团队也一样重要。这些问题不回答,AI 很容易变成一种热闹的装饰。回答了,它才可能变成真正的工作系统。

以前公司拼的是谁更会用软件,接下来拼的是,谁能“接住” AI

工具可以买,账号可以开,但这种能力,得自己长出来。

参考资料
[1] 

How enterprises are scaling AI: https://openai.com/business/guides-and-resources/how-enterprises-are-scaling-ai/

[2] 

AI 落地指南: https://cdn.openai.com/pdf/025ecc00-e528-48dc-95f7-90a96c7be449/frontiers-of-ai-leadership-lessons-guide.pdf


-- 完 --


加入机智流 Pro,1 天一块钱,AI 能力指数级增长时代,不掉队。机智流 AI 团队将燃烧远超人类的智能的 AI Tokens 驱动 AI Agents 军团带来「与你有关」「对你有用」的高质量资讯/研报。


机智流推荐阅读

1. 打破垄断!华南理工等团队发布首个大规模多镜头视频生成数据集,推动视频生成迈向工业级应用

2. Agent真的能完成入职办理这样的跨系统真实业务吗?港中文等团队提出Claw-Eval-Live,让Agent评测在多个系统里把业务真的跑完

3. 从数据补充到知识蒸馏:一次自我认知微调的优化实践

4. 机器人决策新范式:港大&小鹏机器人提出DIAL,让AI机器人“想清楚”再动手,效率提升10倍

关注机智流并加入 AI 技术交流群,不仅能和来自大厂名校的 AI 开发者、爱好者一起进行技术交流,同时还有HuggingFace每日精选论文顶会论文解读Talk分享通俗易懂的Agent知识与项目前沿AI科技资讯大模型实战教学活动等。
在「机智流」公众号后台回复下方标红内容即可加入对应群聊:
  • cc | 大模型技术交流群
  • hf | HuggingFace 高赞论文分享群
  • lc|LangChain 技术交流群
  • code | AI Coding 交流群
  • 具身 | 具身智能交流群
  • 硬件 | AI 硬件交流群
  • 推理 | AI 推理框架交流群
  • 智能体 | Agent 技术交流群

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询