推荐语
麦肯锡Agent或将颠覆传统咨询模式,以AI之力复刻顶级顾问的"探图"能力,为企业战略问题提供量化解决方案。
核心内容:
1. 麦肯锡Agent的核心能力:商业世界建模与逻辑推演
2. "探图"策略详解:从碎片化数据到最优解决方案的路径裁剪
3. 对比现有AI研究与大厂Deep Research的迭代能力差异
杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
麦肯锡Agent可能是未来B2B软件领域最大的异数。在我的愿景中,与当下面向查询、任务和工作流的Agent不同,麦肯锡Agent应直面商业/战略问题,以麦肯锡Associate水准之上的Problem Solving能力提供解决方案。
如果有人问我如何打造麦肯锡Agent?我的第一反应是:
很多人认为管理咨询不过是企业高管雇来的“一杆枪”。但无论是出于何种目的(例如,“支撑不受欢迎的决定”、“将内部矛盾外化”、“甚至是为未来可能的失败脱罪”),麦肯锡顾问(下称:顾问)最终的叙事都必须由一个定性定量的强逻辑体系支撑。
正如Li Feifei将代表、模拟和诠释3D世界运转的体系称为Large World Models;我们也可以将这个代表特定商业领域的强逻辑体系称为World Model。理想中的World Model是事实及其支撑逻辑的合集。但在现实中,World Model往往为隐性,并呈碎片化 - 事实散布于各类数据、分析和专家的脑袋中;而顾问的工作便是“探图”,即从碎片化的事实中用逻辑确认正确路径。例如,假设我们将下述问题抛给顾问:在项目起始之时,顾问所面对的是一家零售连锁企业跨业务单元、跨营收/成本条线的成百上千种业务指标(图1):受限于项目成本、资源和复杂度等因素,顾问往往无法等待所有指标明晰后再统一求解。反之,他们采用的是“探图”式策略(图2):
- 首先凭借先验知识勾勒出一个由Hypothesis构成的路线图;
- 随后以“利润率”目标为起点,基于事实运用逻辑对路线图进行实时剪裁:逐步剥离无关Hypothesis(证伪)、拓展可行Hypothesis(支撑)、并不断量化Hypothesis的Impact(ROI),直到锁定最优路径。
“探图”成功后,不仅仅利润提升的最优路径被找到,一个包含必要事实以及其支撑逻辑的World Model亦已在顾问的脑中确立。虽然该World Model可能只是全部事实和逻辑的一个“切片”,但即使顾问在最终汇报时还需要考虑收益周期、实施难度、以及办公室政治等诸多主/客观因素,该“切片”定性定量的本质已足以支撑顾问的最终叙事(图3):当下最形似顾问的莫过于各类大厂Deep Research(DR)。例如,Gemini Deep Research可以表演一个似模似样的迭代过程:其能够为议题设置明确迭代轨迹,会有意识地在迭代轨迹中保持议题主线,并在每次迭代中实现Hypothesis的分解和细化(图4):但是,DR并不具备事实与逻辑去支撑、证伪或量化Hypothesis,其当下的探图能力为零。因此,一个顺理成章的方案是打造一个类似于“切片”的World Model,并与DR构成Generator-Verifier模式(图5):
DR(Generator):利用其先验知识生成Hypothesis;
World Model(Verifier):基于事实支撑、证伪或量化Hypothesis。
但是,悖论也由此产生:World Model之所以能够充当Verifier的原因是其必然已经明确了标准答案(最优路径);而如果我们可以从World Model中直接得到最优路径,“探图”又有何必要呢?此时的World Model可谓是已经“地图全开”,复刻顾问的探图能力不再必要。
所以,如果再有人问我如何打造麦肯锡Agent?我仔细考量后会回答:
在可能实现“地图全开”的技术路线中,Causal AI(因果分析)是个选项。很多情况下,顾问不得不利用相关性(Correlation)来支持叙事,但相关性并非强逻辑;例如,虽然在夏天吃冰淇淋和游泳的人数同时上升(相关性),但温度,而非吃冰淇凌,才是游泳人数上升的驱动因素。只有因果关系才能拨开相关性的障眼法,找到并量化事件的真因(图7):同样,像最大化 Log-likelihood 或强化学习这类基于统计拟合的方法,并不善于表达“收入不变、成本上升必然导致利润下降”这类确定性逻辑。因此,虽然Causal AI一直活在深度学习和强化学习的阴影之中,但在一众Correlation、Log-likelihood和Similarity中,定性定量的Causal AI是代表强逻辑体系的不二之选。此外,业界已然开发了一整套基于因果分析构建World Model的工具链,例如,对于利润率问题,人类专家可以基于先验知识、私有数据、Causal-learn和DoWhy等工具构建一个具有统计学意义的“利润率World Model”(图8):而归因分析和ROI预测的组合可以直接在该World Model中定位最优路径:首先,归因分析:Causal AI的Attributions机制可以“量化多因素对目标变化的贡献度”,从而直接筛选出问题的“病根”。例如,“特色商品部门(熟食/烘焙)过于复杂的协作流程”贡献了35%的利润率下滑,排名第一(图9):其次,ROI预测:Causal AI的Intervention机制可以回答问题:“If we change X, How will Y change? ”,从而量化解决“病根”带来的价值。例如,其可以产生如下预测:“如果我们每季度对滞销品(后20%的低周转SKU)进行优化清理,可降低库存持有成10–15%,同时对毛利率产生2–3%的积极提升。”
Causal Reasoning and Large Language Models》展示了大模型在“点对点”和“整图”级别的因果关系识别都超越了传统算法(图10):图10: 使用大模型,Causal Discovery的准确率显著提升第二,最优路径的验证。虽然管理咨询可以“对结果不负责”,但那是建立在乙方顾问与甲方高管长期合作所形成的“羁绊”之上。而不具备此种羁绊的Agent,恐怕并没有“管杀不管埋”的特权。所以,相较于“拍拍屁股走人”的顾问,麦肯锡Agent最好能通过自我演进/纠错的闭环验证其所选出的最佳路径。而在整个闭环中,有两项能力尤为关键(图11):其一,能够启动实验以验证最优路径:这些实验基于Randomized Controlled Trial或A/B Testing理论构建,由人类专家或其他Agent完成;其二,能够利用实验结果优化World Model对问题的理解,并持续迭代。当然,因为篇幅限制,有关麦肯锡Agent的具体实现我们未来再展开。但我想表达的是,当整个业界都在为大模型+RL疯狂时,特定领域的商业底层逻辑却很难被现有的技术路线所描述;而在各类Coder之外,麦肯锡顾问级的Problem Solving还是一片白地。在B2B的严谨面前,我们需要一套强逻辑体系,也许Causal AI是条路。