2026年4月2日 19:30分,来腾讯会议(限30人)了解如何用Openclaw构建企业AI生产力
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Anthropic 祭出杀手锏:你可能错过了 Agent 架构的真正巨变

发布日期:2026-03-31 05:45:15 浏览次数: 1542
作者:大迁世界

微信搜一搜,关注“大迁世界”

推荐语

Anthropic 两项重磅更新揭示 AI Agent 架构的质变,程序化工具调用与网页搜索动态过滤将彻底改变开发范式。

核心内容:
1. 传统 Agent 架构面临的"上下文税"问题及其性能瓶颈
2. 程序化工具调用如何通过沙箱执行解决数据污染问题
3. 网页搜索动态过滤技术对信息检索效率的革命性提升

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家


本月,Anthropic 披露了两项重磅更新。根据我在各大开发者社区的观察,多数人仅将其视为常规的功能迭代。然而,程序化工具调用(Programmatic Tool Calling)网页搜索动态过滤(Web Search Dynamic Filtering)的背后,实则隐藏着同一种核心逻辑的两种呈现。它们共同释放出一个前所未有的信号:严谨的 AI Agent 架构正在发生质变。

究竟什么是“上下文税”?在你意识到之前,它可能已经拖慢了你的整个系统。在标准的工具使用流程中,这一模型调用工具,返回结果填充上下文,它再次阅读、决策并循环往复。每一次往返都在重新采样,每一条中间数据都在蚕食你的窗口。

当你试图构建一个包含五个以上连续调用的 Agent 时,痛感会变得极其写实。令牌(Token)成本在叠加,延迟在加剧。最令人意外的是,随着无关噪音塞满上下文,回答质量反而会因“锚定”在无用信息上而出现滑坡。网页搜索更是重灾区——一次简单的检索往往会把导航栏、侧边栏和页脚等数万个字符的 HTML 垃圾塞进大脑,只为寻找其中那三句关键信息。

拆解“程序化工具调用”的底层逻辑

虽然名字听起来晦涩,但其本质非常纯粹。相比于让智能实体逐个发起 API 请求,它现在能直接撰写一段 Python 脚本,将你的工具作为函数进行内部调用。这段代码运行在安全的沙箱容器中,所有的中间过程都留存在容器内部。最终,只有你需要的结果——无论是 print() 的日志还是计算出的数值——才会返回给模型。

你只需在工具定义中添加一个极简的字段即可开启:

{
  "name""query_database",
  "description""执行 SQL 查询。返回 JSON 对象格式的行数据。",
  "input_schema": { ... },
  "allowed_callers": ["code_execution_20250825"]
}

那个 allowed_callers 字段便是通往新世界的钥匙。一旦设定为 ["code_execution_20250825"],该 Agent 就能在生成的代码中调度此工具;否则,它将退回到传统的交互模式。

其执行逻辑如下:

  1. 模型撰写 Python 脚本,以异步函数的形式调用你的工具。
  2. 代码在隔离的沙箱容器中启动。
  3. 当代码内部触发工具时,执行会暂时挂起,API 将抛出一个 tool_use 块。
  4. 你提供结果后,容器继续运行。
  5. 脚本结束后,该 Agent 仅获取最终产出并给出响应。

这意味着所有的原始查询结果、杂乱的 JSON 格式和 API 原始响应都不会进入上下文。它们在沙箱中被精准处理后即被抛弃。

为什么 Token 数学题从此改变了?

让我们看一个具体的案例:你需要构建一个查询五个大区销售数据并找出冠军的 Agent。在旧方案下,你需要五次采样、五次原始数据回流。而利用程序化调用,它只需写下一段精简的循环代码并运行一次:

regions = ["West""East""Central""North""South"]
results = {}

for region in regions:
    data = await query_database(f"SELECT SUM(revenue) FROM sales WHERE region='{region}'")
    results[region] = data[0]["revenue"]
top = max(results.items(), key=lambda x: x[1])
print(f"Top region: {top[0]} - ${top[1]:,}")

在这个场景中,只有那行 print 的结论会返回给上下文。根据官方文档,程序化调用 10 个工具与直接调用相比,令牌消耗量降低了近 10 倍。这并非边际优化,而是对于高吞吐量数据型 Agent 的降维打击。此外,诸如“提前终止循环”、“根据文件大小动态选择读取方式”以及“在 10,000 行日志中仅筛选末尾错误”等复杂编排,现在都能由模型自动实现。

动态过滤:同样的逻辑,更强的搜索

动态过滤本质上是针对网页搜索工具的程序化应用。它不再是把完整的 HTML 搬进上下文,而是由模型自动编写代码进行解析、提取和预处理。在 Sonnet 4.6 和 Opus 4.6 中,这一功能已默认开启。

在 BrowseComp 和 DeepsearchQA 等硬核基准测试中,这些数字足以让你重新审视生产环境的模型选型。

基准测试
Sonnet 4.6 (旧 -> 新)
Opus 4.6 (旧 -> 新)
BrowseComp
 (复杂事实查找)
33.3% → 46.6%
45.3% → 61.6%
DeepsearchQA
 (多步研究 F1)
52.6% → 59.4%
69.8% → 77.3%

这意味着: 在平均提升 11% 准确度的同时,输入令牌的消耗反而减少了 24%。Quora 旗下的 Poe 团队在测评后表示:“该模型现在的行为更像是一名真正的研究员,它会写 Python 来过滤和交叉验证结果,而不是对着 HTML 原始文本盲目推理。”

当然,这里有个现实的提醒:Token 成本并非在所有模型上都同步下降。尽管如此,这种通过“少花钱多办事”带来的质量跃升,依然是 2026 年最值得关注的架构趋势。

拼图的最后几块

除了上述核心更新,该 AGI 先锋还让数个关键组件步入正式商用(GA)阶段。记忆(Memory)功能提供了跨对话的持久化存储,避免了每轮对话都要重新塞入历史的尴尬;工具搜索(Tool Search)则允许在巨大的库中动态发现工具,无需提前预加载所有定义。

所有的功能——无论是沙箱引擎、程序化调用还是动态过滤——都指向了同一个瓶颈:上下文窗口的过载。

我们正处于一个转折点。 过去那种把所有数据塞进窗口并祈祷算法能自己理清思路的“天真架构”已经走到了尽头。新兴的模式是:在数据触达大脑之前,先进行程序化的预处理。过滤、解析、外部持久化——让模型回归其作为“决策者”和“编排者”的本位。

未来的 Agent 不会再搬运原始数据,它们会思考需要什么,写代码去获取,然后仅加载结论。如果你正深陷上下文溢出的困扰,那么 allowed_callers 绝对值得你投入一个下午去研究。这种架构上的聪明,将带来比模型降价更深远的经济效益。


最后:
精通 React 面试:从零到中高级(针对面试回答)  
CSS终极指南  
Vue 设计模式实战指南 

20个前端开发者必备的响应式布局

深入React:从基础到最佳实践完整攻略
python 技巧精讲
React Hook 深入浅出
CSS技巧与案例详解
vue2与vue3技巧合集

全栈AI·探索:涵盖动效、React Hooks、Vue 技巧、LLM 应用、Python 脚本等专栏,案例驱动实战学习,点击二维码了解更多详情。



53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询