支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大厂经验,AI Agent 的进化:从“单挑”到“群殴”

发布日期:2025-06-19 06:49:26 浏览次数: 1540
作者:草台AI

微信搜一搜,关注“草台AI”

推荐语

揭秘AI Agent如何通过"群殴"战术突破性能极限,Anthropic的多智能体系统让复杂任务处理变得轻而易举。

核心内容:
1. 多智能体系统的运作机制:领导AI拆解任务,下属AI并行处理
2. 性能提升的关键因素:token消耗量与AI能力的直接关联
3. 未来AI发展的关键路径:资源换能力的战略价值

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家


大厂经验,AI Agent 的进化:从“单挑”到“群殴”

咱们今天聊一个硬核话题:AI 公司 Anthropic 最近公布了他们是如何构建 Claude 的“研究”功能的。这不仅仅是让模型能上网搜索信息那么简单,它背后是一套复杂的“多智能体系统”。

说白了,就是让一群 AI“打群架”。


如果你用过最新的 Claude,你可能会发现它能处理一些特别复杂的任务,比如让你“把标普500信息技术板块里所有公司的董事会成员都列出来”。这种事儿,你要是让一个单打独斗的 AI 去干,它很可能搜着搜着就迷路了,最后交个白卷。

但 Anthropic 的这套系统能搞定。它是怎么做的呢?它背后有一个“领导”AI,接到任务后,它并不自己动手,而是把任务拆分成一堆小任务,然后“召唤”出一群“下属”AI,让它们并行开工,每个“下属”负责一部分。最后,“领导”再把所有“下属”交上来的结果汇总起来,给你一个完整的答案。

这就是一个典型的“群殴”战术。用技术行话讲,叫“编排者-工作者模式”(orchestrator-worker pattern)。

你可能会觉得,这不就是人海战术吗?没什么技术含量嘛。

恰恰相反,这里面的学问非常大。Anthropic 的工程师们发现,这套“群殴”战术,可能是未来提升 AI 能力的关键路径。

为什么要“群殴”?因为“大力出奇迹”

我们先得承认一个有点反直觉的事实。Anthropic 的研究发现,在评估 AI 模型的表现时,95% 的性能差异可以被三个因素解释:模型本身的能力、调用工具的数量,以及一个最关键的因素——消耗的 token 数量

这个“token 消耗量”竟然自己就解释了 80% 的性能差异。

这意味着什么?这意味着在当前阶段,想要 AI 解决更复杂的问题,最简单粗暴、也最有效的方法,就是让它“烧”掉足够多的 token。

这就好比做研究,你不能指望一个天才看一本书就什么都懂了。真正的研究需要阅读海量的文献,进行大量的思考和交叉验证。AI 也是一样,处理复杂、开放式的问题,比如做深度研究,就需要巨大的“思考空间”。而 token,就是 AI 的思考空间。

一个 AI 的上下文窗口是有限的,就像一个人的短期记忆有限一样。多智能体系统,本质上就是把一个超级大的问题,分包给无数个拥有独立上下文窗口的 AI。每个 AI 都在自己的小领域里“死磕”,消耗大量的 token 进行深度思考和搜索,然后把精华部分提炼出来。

这是一种用资源换能力的策略。Anthropic 的数据显示,多智能体系统消耗的 token 大约是普通聊天交互的 15 倍。代价是昂贵的,但效果是惊人的。在他们的内部评估中,一个由 Claude Opus 4 担任“领导”、一群 Claude Sonnet 4 担任“下属”的多智能体系统,其性能比单打独斗的 Claude Opus 4 高出了 90.2%。

这验证了一个朴素的道理:当个体智能达到一定瓶颈后,想实现指数级的增长,就得靠“集体智能”。人类社会的发展就是最好的例子。

当 AI 领导“AI员工”,管理是个大问题

让一群 AI 一起工作,听起来很美,但实际操作起来简直是一场噩梦。Anthropic 的工程师们早期就遇到了各种哭笑不得的问题:

  • 管理失控
    有的“领导”AI 一接到简单任务,就一口气召唤出 50 个“下属”,造成巨大的资源浪费。
  • 目标漂移
    “领导”给的任务指令太模糊,比如“研究一下半导体短缺”,结果好几个“下属”AI 去做了完全重复的工作。
  • 无效沟通
    “下属”之间不断地用大量信息互相干扰,而不是有效协作。

这不就是我们人类公司里天天上演的管理难题吗?

为了解决这些问题,Anthropic 的工程师们必须像个真正的“管理者”一样,通过“提示词工程”(Prompt Engineering)来调教这些 AI。他们总结出的经验,对我们理解如何与未来的 AI 协作极有价值:

  1. 明确授权与分工
    “领导”AI 必须学会如何下达清晰的指令。一个好的任务指令应该包括:目标、交付格式、建议使用的工具和信息源,以及最重要的——任务边界。这就像一个好的项目经理,必须把活儿分得清清楚楚。
  2. 设定资源预算
    AI 自己不知道一个任务该花多大力气。你必须在指令里告诉它规则。比如,“简单查个事实,派 1 个 AI,调用 3-10 次工具就行了”;“要做复杂研究,可以派 10 个以上的 AI,并且要明确分工”。这防止了“杀鸡用牛刀”。
  3. 教 AI 学会反思
    “思考过程”至关重要。Anthropic 让 AI 在行动前,先输出自己的思考步骤(这叫 Extended Thinking)。“领导”AI 要先规划,评估用什么工具、派多少人。每个“下属”AI 在调用工具拿到结果后,也要先“复盘”一下,评估信息质量,看看还有什么遗漏,再决定下一步怎么走。这种“三思而后行”的机制,大大提升了效率和准确性。
  4. 让 AI 自我迭代
    这是最绝的一招。他们发现,像 Claude 4 这样的高级模型,本身就是个出色的“提示词工程师”。当一个 AI 失败时,你可以让另一个 AI 来分析它为什么失败,并提出改进建议。他们甚至做了一个“工具测试 AI”,专门负责测试和优化给其他 AI 用的工具描述。这个 AI 反复试用一个不好用的工具,然后自己重写工具说明书,最终让后续 AI 使用该工具的任务完成时间减少了 40%。AI 正在学会自己优化自己。

你看,这些所谓的“提示词工程”,本质上就是把人类世界经过验证的管理智慧和研究方法论,编码成 AI 能理解的“企业文化”和“工作流程”。

从“原型”到“产品”的鸿沟

在实验室里让 AI 跑通一个 demo 很容易,但要把它变成一个能稳定运行的商业产品,中间隔着一条巨大的鸿沟。

AI 系统和传统软件最大的不同在于它的非确定性。一个 AI 智能体,即便两次输入完全相同,它的行为路径也可能完全不同。这就给调试和维护带来了巨大的挑战。用户报告“AI 没找到一个很明显的信息”,工程师很难复现问题到底出在哪里。

此外,AI 智能体是“有状态”的,它们会长时间运行。任何一个微小的系统错误都可能被放大,导致整个任务链条崩溃。你不能像重启一个软件那样简单地让它从头再来,因为那代价太高了。

Anthropic 的解决方案是:

  • 强大的可恢复性
    系统需要有检查点(checkpoints)和重试逻辑,当发生错误时,能从中断的地方恢复,而不是一切归零。
  • 全面的可观测性
    不能只看最终结果,必须记录下 AI 每一步的决策过程和工具调用情况。这就像给一个黑箱装上了无数个探针,让你能诊断问题根源。
  • 平滑的部署策略
    更新系统时,不能粗暴地“一刀切”。他们采用“彩虹部署”的方式,让新旧版本的系统并行运行,逐步将流量切换过去,确保正在运行中的 AI 任务不会被中断。

说到底,构建一个可靠的 AI 智能体系统,是一项极其复杂的系统工程。它要求工程师不仅要懂算法,还要懂架构、懂运维、懂管理。

Anthropic 的这篇文章,揭示了通往更强人工智能的一条可能路径:不再仅仅追求单个模型的“智商”有多高,而是转向研究如何让一群AI形成高效的“组织力”。这或许意味着,未来我们与 AI 协作的方式,将越来越像是在管理一个由无数不知疲倦、绝对忠诚但偶尔会犯傻的“AI 员工”组成的超级团队。而我们的角色,就是那个为它们设定目标、规划流程、优化管理的“超级项目经理”。



如果您想要让大模型写出优质的短篇小说,以及对其他内容感兴趣,也欢迎点击下面的链接,效果不错哦,很多朋友都说好。

点击这里:超强写作提示词 以及 最强写作指导

效果如下

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询