免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

麦肯锡发布:全球企业智能体Agentic部署的6大教训

发布日期:2025-12-27 19:41:28 浏览次数: 1521
作者:李举刚

微信搜一搜,关注“李举刚”

推荐语

麦肯锡深度剖析全球企业智能体部署的成败关键,揭示6大实战教训助你避开AI转型陷阱。

核心内容:
1. 智能体部署失败的常见误区与成功企业的关键差异
2. 如何科学评估业务场景是否适合采用智能体技术
3. 建立用户信任的评估机制与流程优化方法论

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

引言

进入「智能体式 AI」(Agentic AI)时代已满一年,有一点非常清楚:要真正做好,并非易事。
虽然有公司已经在此类技术上取得早期成果,但更多公司发现,投入后的价值并不如预期,甚至因为智能体未能兑现承诺而重新聘用了原先的人工岗位。

所谓智能体式 AI,是指基于生成式 AI(Generative AI)基础模型,能够在真实世界中执行多步流程、主动采取行动的系统。
换句话说,AI 不只是「提供建议」,而是可以主动承担任务、推进流程。

为了探究这些系统为何成功、为何失败,麦肯锡调研了 50 多个智能体式 AI 项目,并结合其他企业案例,最终总结出六条关键教训。


教训 1:关注流程,而不只是「智能体」

成功实现业务价值,不仅是部署一个智能体那么简单——关键在于 流程的改变

很多组织将焦点放在智能体工具本身,结果造出了看起来很酷、但流程没有改善的系统,从而带来低于预期的价值。
相比之下,那些从头「重新构想」包括人、流程与技术在内的完整工作流程的公司,往往更容易获得真正的成效。

关键在于理解:智能体如何在流程中的每一步协助人与技术,让整体更高效。

例如,一家法律服务公司希望改造其合同审查流程。由于法律推理常随判例、司法区和政策解释变化而变动,难以完全编码。
团队因此设计了「流程内学习」机制:用户每次在文档编辑器中修改内容,系统就记录、分类,并将数据反馈给工程师和数据科学家,用于训练智能体、优化提示逻辑、丰富知识库。
随着时间推移,智能体逐步具备了新的专业知识。
他们的重点不是「AI 能做什么」,而是「人和 AI 如何协作」。


教训 2:不是所有场景都适合用智能体

AI 智能体的能力虽强,但它并非万能钥匙。
一个常见的问题是,领导者没认真评估「需要完成的任务是否真的适合智能体」,结果投入大量资源却效果平平。

在评估时,可以像选择团队成员一样问:

「要解决什么问题?每个候选成员(或工具)具备怎样的能力?他们如何协同?」

很多业务问题其实用更简单的自动化、预测分析或 LLM 提示即可解决,往往比直接部署智能体更可靠。

经验判断:

  • • 如果任务基于规则、重复且输入结构化 → 用规则自动化。
  • • 如果输入非结构化,但任务是抽取或生成 → 用生成式 AI、NLP 或预测分析。
  • • 如果任务基于历史数据做分类或预测 → 用预测分析或生成式 AI。
  • • 如果任务需要综合判断、创意解释 → 用生成式 AI。
  • • 如果任务涉及多步决策、高度变异输入与情境 → 可考虑智能体。

关键在于:不要陷入「必须用 AI / 不用 AI」的二元思维。
更重要的是判断「哪个工具适合这个任务」「人和 AI 如何搭配」。


教训 3:重视评估机制,建立用户信任

许多团队在演示中看似完美,但实际用户体验却因「AI 输出质量差」而失去信任。
一旦信任瓦解,采用率会极低,自动化带来的效率提升也会被抵消。

企业应像培养员工一样培养智能体。正如一位负责人所说:

「启用智能体更像雇用一名新员工,而不是部署一个软件。」

智能体应有:

  • • 明确的岗位说明;
  • • 入职与培训流程;
  • • 持续反馈机制。

常见评估指标包括:

  • • 任务成功率(端到端自动完成比例)
  • • 准确率 / 召回率 (F1 分数)
  • • 检索准确率
  • • 语义相似度(与参考输出的余弦相似度)
  • • 主观质量(由 LLM 或人工评估清晰度、助益性)
  • • 偏差检测(不同用户群体输出差异)
  • • 虚构率(生成无依据内容的比例)
  • • 校准误差(信心水平与正确率一致性)

专家应持续参与性能监测与反馈,不可「上线即放任」。
例如,一家全球银行在「了解客户 (KYC)」与信用风险流程中,当智能体与人工结果不一致时,团队追踪逻辑缺口、细化标准、再次测试。
后来,团队要求智能体「多次问为什么」,使其分析更深入,最终显著提升用户信任。


教训 4:让每一步都可追踪、可验证

部署少量智能体时,审查尚可手动完成;但当智能体数量达到上百上千个,若无监控机制,就难以定位问题。

很多公司只追踪最终结果,而不审查中间步骤,导致出错时无法查清原因。
因此,必须在流程中嵌入「可观测性」:
记录智能体的每一步决策、输入输出与状态。

例如,某公司在合同审查系统中发现智能体在新案例上准确率骤降。
通过流程日志,他们发现问题根源是上游用户数据质量不足,于是改进数据格式指导并调整解析逻辑,性能迅速恢复。


教训 5:可复用性比数量更重要

许多企业在 AI 浪潮中为每个任务都建一个智能体,结果产生大量重复劳动。
其实,许多任务(如提取、搜索、分析)共享相似的组件。

最佳实践:

  • • 开发「可复用智能体」或通用组件;
  • • 建立集中式能力平台;
  • • 提供监控、提示模板、知识库、代码片段等通用服务。

这样做可减少 30–50% 的重复建设工作量,并提升一致性与安全性。


教训 6:人仍是核心,只是角色在变化

随着智能体的广泛部署,人类的角色将转变,但不会被取代。
AI 将接管一些重复性、规则化的任务,而人类将更多承担:

  • • 策略判断;
  • • 创意设计;
  • • 模型监督;
  • • 系统调优。

未来的组织结构将更像「人机混编团队」:AI 负责执行,人类负责方向。
那些能快速调整分工模式的组织,将在智能体时代更具竞争力。


总结

智能体式 AI 不只是一个技术新潮,而是一种工作方式的变革。
它要求企业从「造工具」转向「重构流程」,从「单点部署」转向「系统协同」,从「一次性上线」转向「持续训练与反馈」。

真正成功的组织,不是那些拥有最多智能体的公司,
而是那些 让智能体与人协作得最好的公司

以上,既然看到这里了,如果觉得有用,随手点个赞、在看、转发三连吧,如果想第一时间看到更多产品思考、技术分享和洞见,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

回复agent即可获取原文链接


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询