免费POC,零成本试错

AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Anthropic 做 Multi Agent 系统的工程经验(下)

发布日期:2025-08-21 13:28:35 浏览次数: 1529
作者:地球美好不

微信搜一搜,关注“地球美好不”

推荐语

Anthropic分享多智能体系统的评估与优化实战经验,揭示如何平衡自动化与人工评估的智慧。

核心内容:
1. 多智能体评估的革新方法:从预设路径转向结果导向与过程合理性验证
2. LLM作为评判工具的应用与优化:从多评委实验到单评委提示的演进
3. 人工评估的关键作用:捕捉自动化评估盲区的三大典型场景

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 

这一篇写Anthropic的智能体评估、生产可靠性和工程挑战。

智能体评估

如何做智能体评估呢?传统的做法是“给定输入 X,必须走步骤 Y,才能得到正确输出 Z”。但是多智能体不能这样做,因为它没有固定唯一的、可预先写死的解题路径。

评估什么

不要去检查是否走了预设的路径,而要判断是否有合理的过程和正确的结果。

  • • 结果导向:最终答案是否正确、是否满足用户需求。
  • • 过程合理性:虽然允许路径变化,但要确保路径在逻辑、效率、成本、可靠性上“说得通”。

从小样本集上就开始做评估

不要等数据量大时才开始做评估,在小样本的时候就开始做评估

LLM AS JUDGE

  • • 研究输出的评估难题:研究输出通常是自由形式的文本,很难通过程序化的方法进行评估,因为它们很少有唯一正确的答案。
  • • LLM作为评判工具的适用性:LLM 由于其强大的语言理解和生成能力,非常适合用于评估这种复杂的研究输出。

打分规则

Anthropic 制定了一些打分规则:

  • • 事实准确性(说法是否与来源一致?)
  • • 引用准确性(引用来源是否真的支撑该说法?)
  • • 完整性(是否涵盖了所有要求的内容?)
  • • 来源质量(是否优先使用了高质量的一手资料,而不是低质量的二手资料?)
  • • 工具效率(是否用了恰当的工具、调用次数是否合理?)

评分方式:LLM评判工具会根据上述标准对每个输出进行评分,评分范围为0.0到1.0,并给出通过或不通过的等级。

实验与优化

  • • 多评委实验:最初尝试使用多个LLM评判工具来评估每个标准,但发现这种方法不够一致,与人类评判结果的对齐度也不够高。
  • • 单评委优化:最终发现,使用单个LLM评判工具,通过一个单一的提示(prompt)来输出评分和通过/不通过的等级,是最一致且与人类评判结果最接近的方法。

人工评估的重要性

  1. 1. 自动化评估的局限性
    自动化评估工具(如LLM评判工具)虽然高效,但可能会遗漏一些边缘情况(edge cases)。这些情况包括:
  • • 幻觉答案:在不寻常的查询中,智能体可能会生成看似合理但实际上错误的答案(hallucinated answers)。
  • • 系统故障:自动化评估可能无法检测到系统中的潜在故障。
  • • 微妙的来源选择偏差:自动化评估可能无法识别智能体在选择信息来源时的微妙偏差。
  • 2. 人工评估的优势: 人工评估可以弥补大模型评估的不足,可以揪出评估脚本遗漏的极端情况,例如罕见查询下的幻觉答案、系统故障,或对资料选择的微妙偏见。 例如,Anthropic发现,智能体总是优先选 SEO 优化过的内容,而跳过权威但排名较低的学术 PDF 或个人博客。后来他们在提示词里加入来源质量的启发规则,才解决了这一问题。
  • 3. 多智能体系统的复杂性
    • • 多智能体系统具有涌现行为(emergent behaviors),这些行为不是通过具体编程产生的,而是智能体之间相互作用的结果。例如,对主智能体(lead Agent)的小改动可能会不可预测地改变子智能体(subagents)的行为。
    • • 成功的关键在于理解智能体之间的交互模式,而不仅仅是单个智能体的行为。

    生产可靠性和工程挑战

    在传统软件里,一个小 bug 可能仅仅让功能崩溃、性能下降或触发一次故障。

    而在agentic 系统里,微小的改动会像滚雪球一样放大,引发巨大的行为漂移——这使得为那些需要在长时间运行中保持状态的复杂智能体编写可靠代码变得异常困难。

    1. 增加故障点原地恢复的功能

    智能体可能长时间运行,在多次工具调用之间持续保持状态。这意味者必须保证代码的持久执行,并在每一步都能妥善处理错误。

    出错时,不能简单地“重启”:重启太昂贵了。所以Anthropic 构建了一套可从故障点原地恢复的系统,并加上了重试逻辑和定期快照来保证断点恢复的功能。

    2. 开发全链路追踪

    在传统软件里,同样的输入基本会得到同样的输出,可 AI 智能体是“动态、非确定性”的——同一套提示词跑两次,内部决策路径都可能不同,于是调试难度成倍上升。 举个例子:用户投诉“智能体连显而易见的资料都找不到”。光凭日志根本看不出问题出在哪——是它生成了糟糕的搜索关键词?还是选到了垃圾网页?还是工具本身调用失败?

    Anthropic 引入了一套“全链路追踪(full production tracing)”,记录每一次调用、每一个决策节点(关键词→结果→评分→下一步动作),但不记录对话正文,保证用户隐私。

    好处:

    • • 能一眼看出“哦,原来失败都是因为它把 PDF 当网页解析导致失败”之类的根本原因;
    • • 能发现“两个子智能体反复互相踢皮球”这种事先没想到的异常协作;
    • • 把常见失败归纳成模式后,就可以系统性地修 bug、改提示、补工具,而不是靠猜。

    3. 部署的时候要考虑用户正在使用

    考虑到无论什么时候发布更新都有可能有用户在使用智能体,Anthropic 采用“彩虹部署(rainbow deployments)”:旧版本和新版本同时在线,逐步将流量从旧实例切到新实例,从而避免打断正在运行的智能体。

    4. 同步执行与异步执行

    同步执行优点

    • • 流程简洁:主智能体按固定顺序等待全部子智能体返回即可,调度与调试成本较低。
    • • 状态一致:所有子任务一次性完成,输出天然对齐,无需额外的合并步骤。

    同步执行挑战

    • • 吞吐受限:任一子智能体延迟即拖慢全局,系统整体并行度受限。
    • • 缺乏弹性:主智能体无法在运行过程中动态修正子智能体的目标;子智能体之间亦无法实时共享信息或协同。
    • • 资源闲置:当大部分子智能体已结束而少数仍在执行时,算力与带宽均被阻塞,利用率下降。

    异步执行优点

    • • 并行度显著提升,各子智能体可独立推进并按需衍生新任务;
    • • 主智能体可实时接收中间结果,及时重定向或终止子任务,实现精细化控制;
    • • 子智能体之间可通过消息机制即时协作,提高整体效率。

    异步执行挑战

    • • 结果汇总:需额外机制对无序到达的结果进行排序、去重与聚合;
    • • 状态一致:分布式快照或事务协议保障全局视图同步,增加系统复杂度;

    5. 上下文管理

    当 AI 代理需要与用户进行几百轮对话时,如何让它“记住”前面发生的事,又不会因为上下文窗口塞不下而失效呢?

    1. 1. 解决思路:
    • • 压缩:把已完成的对话总结成几句话。
    • • 外存:把总结、关键数据、研究计划等存到外部记忆(数据库、文件、向量索引),而不是全塞在对话里。
  • 2. 具体做法: 每完成一个“工作阶段”(例如:搜集完芯片短缺原因、或写完商业计划书的第一章),主代理先自我总结,再把摘要和核心结果写到外部记忆。 当对话快要占满窗口时:

    后续任何时刻,代理都能按需回查外部记忆里的研究计划、数据表、引用列表,而不用把这些庞杂信息一直放在对话上下文里。

    • • 起一个新的子代理(context 干净,token 宽裕)。
    • • 交接:把外部记忆里的摘要 + 下一步任务传给新子代理,让它无缝接力,用户几乎感觉不到“换人”。

    总结

    把 AI 原型变成真正可依赖的生产系统,比大多数人想象的要难得多。

    1. 1. 在 AI Agent项目上,跑通demo 只占 40% 的工作量,剩下 80% 都要花在“最后一公里”——让它在生产环境中长期、可靠、可扩展地运行。
    2. 2. 在开发者电脑上能跑 ≠ 能在生产环境跑。要把demo变成 7×24 可用的服务,需要额外的工程:持久化、重试、并发、监控、灰度发布、回滚、成本控制……这些在传统软件里已经很复杂,在“会思考”的 AI 代理里更加复杂。
    3. 3. 传统软件里,一个小 bug 通常只影响一个功能;AI 代理里,一个小错误会被“推理链”放大,导致后续所有步骤跑偏。例如搜索返回一条错误信息,代理可能据此做出完全错误的商业决策。
    4. 4. 很多团队低估了这个差距,导致项目延期或失败。因此要提前规划工程投入,而不是“先做出来再说”。

 


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询