微信扫码
添加专属顾问
我要投稿
AI转型路上最大的障碍不是技术,而是人心——看这位AI领军人物如何化解团队阻力,带领企业成功落地AI项目。核心内容: 1. 选择首个AI项目的关键标准与实战案例 2. 破解员工对AI的误解与抵触心理 3. 建立AI落地的沟通策略与培训体系
如果你正在阅读本文,那么你很可能是一位天生的AI达人——对AI好奇并愿意积极探索如何使用它。但在公司里,这种剧烈的AI转型并不会让你激动不已,相反,你更可能会在误解、各方阻力和复杂心态冲突之间苦苦挣扎——这些问题不断地迫使你停下来思考“怎么又回到起点了”。
💡 BCG 2024 年的一项调查报告显示,企业在AI 落地过程中面临的最主要问题是人(人的因素高达70%,而算法问题和其他相关的技术问题分别为10%、20%)。
本文将要分享莱拉(Leila)的故事。她作为一位AI领军人物,克服了一系列来自人的挑战,最终带领公司走上AI落地的正确轨道。我们将讨论如下几点:
我希望本故事能激励你在自己使用AI之余,还能使AI成为你企业业务转型的积极力量。
物流供应商AeroLogix的领导层花了一年时间开展有关AI的高层讨论,咨询顾问们因此来来去去、留下一堆PPT文档。而竞争对手们已经开始行动——部署预测工具、优化路线、试验人工智能代理(AI Agent)。董事会希望看到实际行动。
值得称赞的是,该公司并没有匆忙要求IT部门实现一个“革命性”的聊天机器人。相反,他们花时间探索了更相关的AI应用方向:
由于团队聚焦执行和进度管理问题,他们选择了“备件预测”这个听起来并不光鲜亮丽的问题(但确是实实在在的痛点)——一些计划人员为了避免停工而不断囤积库存,浪费了资金和仓储空间;另一些人则库存计划不足、延误了生产。这个绩效差距导致了公司数百万美元的损失,只需一点点AI驱动的优化就能明显地改善结果。
深入挖掘后,更多事实佐证了该计划的可行性。相关数据已经以相当清晰和集中的形式存在,AI可融入现有工作流程并且根据初步测算,90天内就可以交付出可用的alpha版本。
总而言之,这是非常好的首个AI项目,能让 AeroLogix 积累初步经验并据此制定更广泛的AI战略。
在选择您的首个AI项目时,请选择具备如下特征的方案:
若需要寻找AI构思的方法论,可访问链接获取“AI机会树”方法介绍:https://www.ai-strategy-partners.com/knowledge-hub/mental-models/ai-opportunity-tree
在规划项目的跨职能团队中,人们对AI的态度截然不同。雷德·霍夫曼(Reid Hoffman)将大家对人工智能的思维模式分为四种:“激进者”(Zoomers)、“悲观者”(Gloomers)、“末日者”(Doomers)和“乐观者”(Bloomers)(参见霍夫曼的著作《超级机构》(Superagency)),这四种思维模式在莱拉主持的AI项目会议期间也浮现了出来。
IT 部门代表汤姆(Tom)表现出了极大的热情:
“这只是供应链的 ChatGPT,对吧?我们自己做吧。”
汤姆展现了“激进者”思维模式——渴望使用 AI,但也略显天真。他低估了 AI 带来的风险和复杂性,这就很容易做出过于乐观的估计,最终在项目“最后一公里”里反复陷入巨大的、难以克服的问题。
拥有二十年经验的资深计划师安德里亚(Andrea),则表达了保留意见:
“我已经做了几十年的预测了。现在,机器应该能帮我预测了?”
安德里亚的怀疑态度源于悲观者思维。她认可AI的必然性,但对AI可能带来的就业和人类专业价值方面的影响持谨慎态度。
合规部门的马克(Mark)保持了谨慎立场。他在会议上提出了文档和可解释性有关的问题、但并未表态。尽管马克没有表态,但他是末日论者——担心AI对人的潜在风险,主张对其进行严格监管。
莱拉作为一名中层运行运营转型经理(perations transformation manager),在AI方面并不是最有发言权的人,但却是最了解情况、最客观的人。她一直在默默探索AI,尝试各种原型来简化工作流程。她提出的问题富有洞察力、避免专业术语并鼓励同事积极参与。莱拉体现了乐观者的思维模式——在乐观与谨慎之间取得平衡,渴望运用AI,同时寻找降低其风险的方法。她是领导本项目的不二人选。
让我们总结一下,你将会遇到的四种不同的思维模式:
🛑 末日论者:将AI视为重大威胁,主张严格控制或完全停止推进。
☁️ 悲观者:认识到AI的潜力,但更关注风险——特别是就业和社会影响方面的风险。
⚡ 激进者:快速采用AI的热心支持者,有时会以牺牲彻底的风险评估为代价。
🌱 乐观者:追求平衡,拥抱AI的同时,倡导负责任的实施。
认知并分析这些态度,有助于你制定更有针对性的沟通和培训策略,确保更具凝聚力和更有效的AI落地过程。
莱拉在首次会议期间仔细观察了团队动态,相应地调整了她的信息。
她厌倦了大家无休止地讨论业务上是否需要AI,于是在会议一开始就明确了基准线:
无论如何,人工智能都会到来。真正的问题不在于我们的公司是否使用它,而在于你选择如何与它互动。
对某些人来说,这无疑是一记严厉的警钟,但这也为大家传递了必要的压力——因为该公司已经落后于更具决断力的竞争对手。对于工作被取代的担忧,莱拉表示:
你的工作不会被人工智能取代,但会被善于使用人工智能的人渠道。请确保(善用人工智能的)那个人是你。
这三个词有助于降低AI落地的阻力,提高大家的支持:
第二步,莱拉专注于引导相关利益相关者——根据不同群体的价值观和关注点相应调整信息传递方式。具体如下表 1 所示。
让我们更深入地了解每个群体的典型态度,以及需要如何调整您的沟通方式。
高管和投资者为我们建立正确的文化并为AI项目配置适当的资源,至关重要。(参见BCG的文章《公司转型AI时,CEO必须挺身而出》,阅读地址:https://www.bcg.com/publications/2025/when-companies-struggle-to-adopt-ai-ceos-must-step-up)。与他们的对话必须聚焦于投资回报率(ROI)和战略相关性——他们通常对技术细节不感兴趣,但需要了解AI将如何影响未来的收入、增长和竞争定位等。莱拉的公司正在开展成本削减,她因此将AI视为节省成本和决策优化的放大器。
人工智能不是成本中心,而是智能放大器。那些能够更快学习和采用人工智能的公司将降低成本,并超越其他公司。
运营人员和用户是人工智能能否成功落地的关键所在。毕竟,再好的人工智能系统如果不能被使用,也都是毫无意义的。他们受到人工智能的直接影响——计划人员、分析员、服务人员、物流协调员等。他们的担忧未必会被公开地表达出来,但却是他们最深切的担忧:这个系统会取代我吗?我能信任它吗?这会导致我的工作变得更难还是更轻松?
莱拉并没有被动等待这些担忧情绪浮现、蔓延,而是围绕这些担忧构建起了沟通机制、积极应对技术的影响和潜在的情绪波动。她保持着简洁、直接和人性化的沟通方式:
通过到用户那里与他们会面,她逐渐将用户的不确定性转化为好奇心和积极参与,让人工智能不会被感觉控制人的、而是对用户能力的增强。
与IT和基础设施团队的讨论重点,必须集中在稳定性、集成度和长期可持续性上。当聚光灯渐渐消退、他们将负责将系统带到生产环境中、让人工智能真正运转起来。
但莱拉还必须应对更深层次的挑战:IT 部门可以独自完成所有工作。在工程师看来,人工智能只不过是又一次的软件部署——涉及一些数据、API和模型节点的部署。有些人会对这个项目充满热情,而另一些人则将其视为职业上升的快速通道。
他们显然低估了人工智能带来的范式转变。与任何事情都可以硬编码实现的、确定的工作流不同的是,人工智能的输出是不确定的、并且经常会犯错——如果这些问题得不到妥善处理,就很容易在现实世界中引发有害的决策和行动。作者的新书《人工智能开发的艺术》(The Art of AI Product Development)第一章就介绍了IT团队将人工智能视为平常开发项目的真实故事,可从中获得更好的方案(在线了解:https://hubs.la/Q03pVdvK0)。
莱拉谈论了团队的过度自信问题:
人工智能并非一成不变。我们正在构建的是一个能在不确定清醒下作出风险预测的系统。为正确实现这个目标,我们需要专业的人工智能专家、严谨的数据科学家以及深度的领域整合。让我们诚实地评估一下,我们内部能给出多少这样的结果。
虽然部分技能在公司内部已具备了,但显然存在差距。他们最终决定与一家外部供应商建立合作伙伴关系——该合作伙伴不仅能提供专业的人工智能专业知识,还能将部分技术转移给公司。(参考阅读:https://www.ai-strategy-partners.com/knowledge-hub/blog/enterprise-ai-partner-and-grow)
与治理和风险团队合作的信心必须围绕保障错误、可审计行和责任等方面展开。——他们并不关心用户满意度或预测准确性,而是考虑监管审查、声誉风险和道德风险。对这个群体来说,信任来自于严谨和透明,而不是承诺。
“我们不仅仅是在建立模型,”她告诉合规主管。“我们正在建设的是你们可以向审计和监管者解释的系统。”
莱拉让治理和风险团队一早就参与进来、邀请他们参与设计决策,并为其提供清晰的应急和监督手段。她传达的信息是人工智能并非默认就是安全的,而是在设计时就充分考虑了安全性和可解释性。
在上述每个场景中,莱拉都没有改变项目的本质。但却改变了大家看待项目的角度。
莱拉在与大家的交流过程中,意识到人工智能领域充斥着各种噪音——误解、炒作和真假掺半的说法。尤其是Zoom上用户的热情超过了理解——他们直言不讳但带有误解的想法被迅速传播,加剧了大家的不确定性和困惑感。为提升能力和信心,莱拉与领导层合作制定了简单但有效的学习框架。
莱拉引入了覆盖全公司范围的技能评估方法,将员工分为三个等级
|
|
|
这项评估清晰地展示了公司现状,揭示了员工个人如何参与AI项目、并可用于持续监测人工智能的成熟度。
为所有未达到AI用户标准的员工设计了强制的、可自定义进度的基础课程。这门课程侧重于实践操作技能:
很快,情况发生了变化。AI就出现在了各种会议、非正式交流和项目简报之中。AI不再是一个炫酷但抽象的名词,人们互相交流prompts技巧、分享快捷指令(shortcuts),开始有了AI的共同语言。
现在让我们开始部门层面的AI探讨。这些探讨由各部门的AI领军人物和共创者主导、侧重于具体的用例,例如:
通常,用户会重复使用prompts,从而产生了专门的用例。例如,某位营销人员收集了用于内容优化的prompts库——他和莱拉一样,是公司首批AI领军人物——他部门同事使用的A便捷工具就是基于这个prompts库构建的。
莱拉深知内部人才的潜力有限。为提升影响力和深度,公司引入了外部AI合作伙伴来为AI事实和学习提供支持。这些专家共同开发用例,指导内部团队并确立最佳实现榜样。“合作共赢”战略也为新兴战略家提供了扩展思维、连接各方力量的空间(参考阅读:https://www.ai-strategy-partners.com/knowledge-hub/blog/enterprise-ai-partner-and-grow)。
最后,莱拉帮助建立了持续学习的文化。团队不再采用集中培训,而是分享各自的学习成果:
这些轻量的仪式使实验常态化、降低了风险,并帮助员工在AI能力的三个等级上都有成长。
当然,所有这些人力工作都和技术构建同步进行——数据准备、与领域专家协同共创,与数据科学家的若干次良性辩论等。AI模型发布并经过几次迭代后,其准确率比人工预测高出15%。
如此的进展令人惊叹,领导层和董事会都很高兴。但对莱拉来说,真正的价值却体现在其他地方
人们不只是使用AI,还根据自身需求去塑造AI。他们探索、适应、共创,将AI的不确定性转变为了自主权和控制力。说到底,任何AI系统中最强大的界面都不是模型或者仪表盘,而是充满好奇、敢于尝试,在需要时挑战系统,带动其他人参与。
如果您想深入了解在整个 AI 项目中如何与不同利益相关者合作,那么请参阅作者的书《AI 产品开发的艺术》第 12 章(与利益相关者合作) 。
请始终记住——无论如何,AI都会改变你的公司。真正的问题是,这一切将在何时发生、如何发生,而你将如何参与到这场变革之中。
译者的话:
1、AI相关的名词在实际使用中可能没有获得高度一致认可的中文翻译,请原谅译者在本文中用到的不那么标准的翻译方法(比如prompt(s)会翻译为“prompts提示词”)。
2、由于微信公众号表格排版问题可能导致单词被换行,为尽可能便于阅读,在部分情况下可能翻译为“人工智能”一词(在本文中,AI和人工智能两个词可以互换)。
3、面对日新月异、日常“被AI颠覆”的从业者和身处其中的企业相关负责人而言,一方面担心跟不上AI被淘汰一方面又很茫然不知道如何进行AI转型。本文提供了有益的分析框架和思路,希望能对你有所启发——找到AI创造价值之处并组织大家有序地达成这一目标才是关键,永远不能为了AI而AI。
4、与前几次新技术浪潮一样,行业里总是会出现类似“AI颠覆一切”“所有行业都会被AI重造一轮”的观点。但只要对优秀AI产品落地案例稍加分析就会知道,AI真正被接纳是因为它与真实的业务流程进行了良好的融合、为客户/企业创造了实实在在的价值(而不是所谓的“颠覆”)。任何变革都会导致利益的重新分配,自然也会面临各式各样的阻力和新问题。
5、我坚信,AI与传统技术永远是协同的关系,而不是“颠覆”“完全取代”。我们观察到的优秀AI应用实践都是对AI与传统技术、人力工作的有序组合。
6、AI释放了新的生产力,会让过去不会被看到/满足的需求得到满足,因此新的机会将会不断涌现出来。但也确实会导致部分岗位的消失,并且在知识产权、数据所有权及其理应产生的收益方面出现了失衡——如何平衡各方利益和需求让AI为人类带来福祉还需要全社会的努力。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-29
2025-05-23
2025-04-29
2025-05-07
2025-05-07
2025-05-07
2025-06-01
2025-04-29
2025-06-07
2025-05-20
2025-07-19
2025-07-19
2025-07-19
2025-07-19
2025-07-19
2025-07-18
2025-07-18
2025-07-18