微信扫码
添加专属顾问
我要投稿
Anthropic分享多智能体系统的评估与优化实战经验,揭示如何平衡自动化与人工评估的智慧。 核心内容: 1. 多智能体评估的革新方法:从预设路径转向结果导向与过程合理性验证 2. LLM作为评判工具的应用与优化:从多评委实验到单评委提示的演进 3. 人工评估的关键作用:捕捉自动化评估盲区的三大典型场景
这一篇写Anthropic的智能体评估、生产可靠性和工程挑战。
如何做智能体评估呢?传统的做法是“给定输入 X,必须走步骤 Y,才能得到正确输出 Z”。但是多智能体不能这样做,因为它没有固定唯一的、可预先写死的解题路径。
不要去检查是否走了预设的路径,而要判断是否有合理的过程和正确的结果。
不要等数据量大时才开始做评估,在小样本的时候就开始做评估
Anthropic 制定了一些打分规则:
评分方式:LLM评判工具会根据上述标准对每个输出进行评分,评分范围为0.0到1.0,并给出通过或不通过的等级。
实验与优化
在传统软件里,一个小 bug 可能仅仅让功能崩溃、性能下降或触发一次故障。
而在agentic 系统里,微小的改动会像滚雪球一样放大,引发巨大的行为漂移——这使得为那些需要在长时间运行中保持状态的复杂智能体编写可靠代码变得异常困难。
智能体可能长时间运行,在多次工具调用之间持续保持状态。这意味者必须保证代码的持久执行,并在每一步都能妥善处理错误。
出错时,不能简单地“重启”:重启太昂贵了。所以Anthropic 构建了一套可从故障点原地恢复的系统,并加上了重试逻辑和定期快照来保证断点恢复的功能。
在传统软件里,同样的输入基本会得到同样的输出,可 AI 智能体是“动态、非确定性”的——同一套提示词跑两次,内部决策路径都可能不同,于是调试难度成倍上升。 举个例子:用户投诉“智能体连显而易见的资料都找不到”。光凭日志根本看不出问题出在哪——是它生成了糟糕的搜索关键词?还是选到了垃圾网页?还是工具本身调用失败?
Anthropic 引入了一套“全链路追踪(full production tracing)”,记录每一次调用、每一个决策节点(关键词→结果→评分→下一步动作),但不记录对话正文,保证用户隐私。
好处:
考虑到无论什么时候发布更新都有可能有用户在使用智能体,Anthropic 采用“彩虹部署(rainbow deployments)”:旧版本和新版本同时在线,逐步将流量从旧实例切到新实例,从而避免打断正在运行的智能体。
当 AI 代理需要与用户进行几百轮对话时,如何让它“记住”前面发生的事,又不会因为上下文窗口塞不下而失效呢?
后续任何时刻,代理都能按需回查外部记忆里的研究计划、数据表、引用列表,而不用把这些庞杂信息一直放在对话上下文里。
把 AI 原型变成真正可依赖的生产系统,比大多数人想象的要难得多。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-21
别再用老地图,寻找AI这片新大陆丨AI时刻
2025-08-21
GPT-5 提示工程指南
2025-08-21
Skywork技术论坛一手分享:Agent与多模态的落地真相|甲子光年
2025-08-21
AI发展进入能动性阶段:上下文工程与模型能力并重 | 奇绩大模型笔记 #7
2025-08-21
企业微信,「奔向」AI一体化
2025-08-21
DeepSeekV3.1 提到的 UE8M0 FP8 Scale 是什么?下一代国产芯片设计?
2025-08-21
快手发布SeamlessFlow框架:完全解耦Trainer与Agent,时空复用实现无空泡的工业级RL训练!
2025-08-21
携程旅游的 AI 网关落地实践
2025-08-21
2025-05-29
2025-06-01
2025-06-21
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-05-28
2025-07-29
2025-08-21
2025-08-20
2025-08-19
2025-08-19
2025-08-18
2025-08-18
2025-08-18
2025-08-15