免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


信息量很大!2025.10.2 硅谷内部关于 AI Agent 的讨论会实录

发布日期:2025-10-15 08:13:38 浏览次数: 1631
作者:Datawhale

微信搜一搜,关注“Datawhale”

推荐语

硅谷顶级风投与AI专家揭秘:为何95%的AI Agent会失败?关键在上下文工程与记忆设计。

核心内容:
1. AI Agent失败的核心原因:上下文工程、安全性和记忆设计等支撑体系不足
2. 高级上下文工程的三大要素:LLM特征选择、语义分层、元数据架构
3. Text-to-SQL等实际应用中的挑战与解决方案

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 Datawhale干货 

作者:Oana Olteanu,编译:Datawhale

近日,在旧金山硅谷内部的一个行业交流活动中,谷知名风险投资人 Oana Olteanu 与来自Uber、WisdomAI、EvenUp 和 Datastrato 的工程师和机器学习负责人们,探讨了 AI Agent 在生产环境中成功的关键因素。
他们提到,95% 的 AI Agent 部署在生产环境中会失败。原因并非模型不够智能,而是因为其周围的支撑体系——如上下文工程、安全性、记忆设计——尚未到位。
原文链接:https://www.motivenotes.ai/p/what-makes-5-of-ai-agents-actually

大多数创始人以为自己在打造 AI 产品,但实际上他们真正在构建的是上下文选择系统。

这场专题讨论深入剖析了隐藏在 Agent 表象之下的复杂核心:上下文选取、语义层、记忆编排、治理机制以及多模型的路由策略。
本文是 Oana 基于研讨会内容的深度整理,由Datawhale进行编译。

上下文工程 ≠ 提示词技巧

在讨论会中,多位嘉宾都表达了相同的一个观点:其实模型微调一般通常用不上。只要把检索增强生成(RAG)做得到位,就足够用了。但目前大多数 RAG 系统设计都还太过简单,做得不够成熟。
常见的失败的模式:
对所有内容一股脑地索引,导致检索结果过多,从而让模型无法判断重点并产生混淆
  • 索引过多 → 检索到过多信息 → 混淆模型

  • 索引过少 → 模型缺乏有效信号

  • 混合结构化和非结构化数据 → 破坏嵌入或简化关键架构

那么,真正的高级上下文工程到底是什么样的呢?

a) LLM 的特征选择

一位嘉宾将上下文工程重新定义为面向 LLM 的原生特征工程:
  • 选择性上下文剪枝 = 特征选择
  • 上下文验证 = 模式/类型/时效性 检查
  • “上下文可观测性” = 跟踪哪些输入提高/降低了输出质量
  • 带元数据的嵌入增强 = 类型化特征 + 条件
这种框架很重要。这意味着我们可以将上下文视为一个可版本化、可审计、可测试的工件,而不仅仅是一串字符串。

b) 语义 + 元数据分层

多个团队提到了采用双层架构:
  • 语义层 → 经典向量搜索
  • 元数据层 → 根据文档类型、时间戳、访问权限或垂直领域本体进行过滤控制
这一混合层有助于对杂乱的输入格式(如 PDF、音频、日志、指标)进行标准化处理,确保你检索到的不仅是“相似内容”,而是相关的结构化知识。可以理解为:在嵌入向量基础上构建的分类体系、实体链接以及特定领域的模式。
这种混合架构能够统一处理各种杂乱的输入格式(如 PDF、音频、日志、指标等),确保检索结果不仅仅是“相似内容”,而是真正相关的结构化知识。比如那些基于嵌入向量构建的分类体系、实体关联以及特定领域的数据模式。
c) Text-to-SQL 的现实挑战
当主持人向观众提问:“你们当中有谁开发过文本转 SQL 系统并已将其投入实际应用?” 没有人举手。
这不是因为问题太小众,而是因为理解查询本来就极为困难。自然语言充满歧义,商业术语又高度依赖具体领域,如果没有经过充分的上下文工程, LLM 根本无法了解某一企业对“收入”或“活跃用户”的具体定义。
那些成功的团队不会简单地把 SQL 结构丢给模型,而是会主动构建一套体系:
  • 业务词汇表及术语对应关系
  • 具有约束条件的查询模板
  • 能够在执行前捕获语义错误的验证机制
  • 能够随时间推移不断优化理解能力的反馈循环

治理与信任并非“仅限企业”的问题

安全、溯源和权限管理一次又一次被提及,它们不是作为走形式的核对项,而是阻碍部署的关键因素。

在垂直领域构建产品的创始人请注意:

  • 必须追踪哪些输入导致了哪些输出(溯源/谱系)

  • 必须尊重行级别、基于角色的访问(策略门控)

  • 即使提示词相同,你也必须为不同用户定制特定的输出

一位嘉宾说:

“如果两个员工问同一个问题,模型的输出应该不同,因为他们的权限不同。”

没有这些控制,Agent 在功能上可能是正确的,但在组织层面是错误的,会泄露访问权限或违反合规。

当前主流的解决方案是:针对结构化和非结构化数据构建统一的元数据目录,并在索引和查询时嵌入访问策略。

信任问题源自于人,而不是技术本身。

一位嘉宾分享了一个他的个人故事,很好的说明了这一点:他的妻子拒绝让他使用特斯拉的自动驾驶。为什么?不是因为它不管用,而是因为她不信任它。

“当 AI 触及到与你的安全、你的钱等非常敏感的领域时,你会信任它吗?我认为这是当前最大的障碍之一。我们确实有时候会使用 AI Agent,但最终还是会要考虑:我真的能信任这个 AI 吗?”

这不仅仅适用于消费产品。对于在营收确认、病历或合规报告等方面做出决策的企业级 AI Agent,存在同样的信任障碍。对于信任问题来说,原始的技术能力并不重要,关键在于系统能否一直做出一致、可解释、可审计的行为。
那些 5% 在生产环境中真正可用的 AI Agent 都有一个共同点:以“human-in-the-loop”的方式设计。它们把 AI 定位为助理,而不是自主的决策者。整个系统能通过人为纠正形成反馈回路并不断学习,同时让人类能够方便地核查并更改 AI 的决定。

记忆不仅仅是存储,更是一种架构设计

每个人都希望给 AI“加上记忆功能”,但记忆并非简单的功能,而是一项关乎用户体验、隐私和系统设计的决策。

记忆的不同层级:

用户级:个人偏好(如图表类型、样式和写作风格)
团队:常见查询、数据看板和运维手册
组织级:机构知识、规章制度以及过往决策
大多数初创企业会将记忆功能直接硬编码在应用程序逻辑或本地存储中。而顶尖团队则会把它抽象成独立的上下文层和行为层,具备版本控制和可组合性。
一位嘉宾将这种做法形容为:
  • 义记忆+分类体系+操作指南=上下文
  • 个人偏好=记忆

利用记忆实现个性化

在应用程序层面,记忆主要有两个作用:
  • 根据用户的个人偏好、写作风格、常用格式及专业领域知识来定制化行为
  • 基于事件和元数据提供主动协助,而不仅限于只是被动的聊天回应
有一个团队分享了他们在 Uber 开发对话式商业智能工具时面临的冷启动问题:用户往往不知道该问什么。
他们的解决方法是,利用用户过往的查询记录建立记忆,并据此主动推荐相关问题作为对话的开场。
但这样的问题在于:个性化的帮助在什么时候会越过界限,变成一种令人不适的监控?
一位与会者提到,他曾让 ChatGPT 推荐一些适合全家观看的电影,结果对方却根据他孩子的名字——克莱尔和布兰登——给出了个性化建议。他随即表示:“我不喜欢这样的回答,你怎么会这么了解我的儿子和女儿?不要侵犯我的隐私。

设计记忆过程中的冲突与平衡

  • 记忆功能能够改善用户体验并提升 Agent 的交互流畅度

  • 但过度个性化很容易迅速触及隐私问题

  • 如果不加以严格的范围限制,共享内存可能会突破访问控制

这里缺失了一个关键的基础要素:一种安全、可跨应用使用、由用户控制的便携式内存层。它不会被服务的提供商锁定。目前还没有人成功实现这一点。一位讨论嘉宾提到,如果他没做现在的创业项目,他就会选择这个方向作为下一个创业目标。

多模型推理与流程编排模式

另一种新兴的设计模式:模型编排。
在实际生产环境中,并不是所有任务都直接调用 GPT-4。越来越多团队开始依据以下因素,来实现对于模型的智能调度:
  • 任务的复杂程度
  •  延迟约束
  •  成本敏感度
  • 数据本地化及监管合规问题
  • 查询类型(例如,摘要生成、语义搜索或结构化问答)
一个示例模式:
  • 对于简单查询 → 由本地模型处理(无需网络请求)
  • 对于结构化查询 → 调用 DSL 或 SQL 翻译器
  • 对于复杂分析 → 调用 OpenAI / Anthropic / Gemini
  • 回退或验证机制 → 采用双模型冗余设计(判别模型+响应模型)
这种模式更像是编译器设计,而不是传统的网页应用路由。你所做的不应该仅仅是“将内容发送给 LLM”,而是在多个异构模型、工具和验证环节之间执行一系列有向无环图(DAG)式的决策流

 为何这很重要:

如果你的系统随着使用的增长而变慢或成本上升,首先应该优化的就是这一层。如果你希望 AI 给用户带来流畅无缝的体验,路由机制就不能很脆弱或长期依赖人工调优,而应采用自适应策略。
有一个团队分享了他们的做法:简单问题由小型且快速的模型处理,而复杂的推理任务则交由先进的大模型完成。其核心理念是:通过持续追踪不同模型对各类查询的处理效果,模型的选择过程本身也可以随着时间不断学习和优化。

什么时候聊天界面是最合适的?

并不是所有任务都必须使用聊天机器人。

一位观众直接提出了质疑:“我觉得自然语言并不是总比图形界面更好。比如我要叫辆优步时,我根本不想跟手机对话,只想要轻轻点几下,车就来了。”

在这点上,嘉宾们达成的共识是:对话式交互的价值,在于它能够消除用户的学习成本

对于 BI 仪表板、数据分析这类传统上需要专业技能的复杂工具,自然语言能够显著降低使用门槛。然而,当用户获得结果后,往往仍希望借助图形界面进行操作和调整——例如将饼图切换为条形图,这时候不应该再依赖额外的文字输入

一种理想的混合模式:
  • 将聊天界面作为起点,让用户能轻松上手,无需学习成本
  • 提供图形界面的控制功能,支持后续的精细化调整与迭代

  • 让用户能够根据具体任务和个人偏好,自由选择合适的模式

一位嘉宾提到了自然语言处理(NLP)的两个理想应用场景:

  • 处理偶发的、情绪化的任务,比如客户服务。例如用户感到沮丧时只想倾诉或寻求帮助,而不是去费力地浏览层层菜单。

  • 进行探索性的、开放式的查询,比如“帮我找一家靠近加州、第一排、能看到海景和蓝天的 Airbnb”,这类需求往往较为复杂且高度依赖具体情境

关键在于:应该去理解用户使用自然语言的真正意图,并据此进行设计,而非一味地将所有交互都强加于聊天界面之中。

还缺少什么?(一些具有潜力的方向)

在讨论中提到了一些还没有被深入挖掘的方向,但其实它们是真正有待产品化的核心组件:

上下文可观测性

哪些输入能够持续提升输出质量?什么样的上下文容易引发模型幻觉?你该如何像测试模型提示词那样来测试上下文?

目前,大多数团队都处于盲目前行的状态,缺乏系统性的方法来评估哪些上下文真正提升了模型性能,哪些反而造成了负面影响。

可组合记忆

记忆是否可以随用户携带(而非依附于应用),具备安全性和可移植性,并支持用户按需选择组织、团队或个人状态的层级?

这将解决两个问题:

  • 用户不需要在每个新工具中重新建立上下文

  • 隐私和安全由用户掌控,而不是被服务提供商限制

这是整个技术栈中最关键的缺失环节。

面向特定领域的领域感知语言

大多数企业用户的需求都是结构化且重复的。与其费力地将自然语言解析成容易出错的 SQL,为何不直接设计更高层次、具备约束安全性且更可靠的专用语言(DSL)呢?

有团队建议,不应该局限于文本转 SQL,而是应该构建一个语义化的企业业务逻辑层,例如“显示第四季度收入”直接对应到一个经过验证的计算方法,而不是直接生成原始 SQL。

具备延迟感知的用户体验

一位讨论嘉宾提到,他们开发的带记忆增强功能的聊天机器人,虽然响应速度较慢,但体验却令人欣喜。原因在于,机器人会根据用户上周的提问,智能地生成一系列后续回应。

这为异步、主动式 AI 如何提升用户体验提供了新思路,不仅限于聊天场景。想象一下:Agent 在你开会前自动生成好简报,在你打开文档时动推送相关信息,或是在你尚未察觉时就提前预警数据中的异常

关键洞见:不同任务对延迟的要求不同。如果是一个笑话任务,需要即时呈现,而如果是一个深度分析任务,即使延迟 10 秒,只要系统能展示它的思考过程并最终给出有效的答案,用户体验就不会差。

图片

生成式 AI 领域的未来方向

参加完这场专题讨论后,我更加确信:我们很快将迎来一波基础设施工具、记忆模块、编排框架以及上下文可观测性技术的发展浪潮。这些技术在将来回顾时,可能会显得顺理成章,但目前仍处于混乱且未被解决的状态。

生成式 AI 领域真正的壁将不在于模型的获取,而在于:

  • 上下文的质量

  • 记忆设计

  • 编排的稳定性

  • 信任的用户体验

如果你是一位致力于开发基础设施、应用或智能体的创业者,不妨想一下:你的产品路线图中有多少内容是围绕上述四项关键问题而设计的?

创始人需要自问的 5 个关键问

  • 我的应用程序的上下文容量是多少?(理想的上下文窗口大小是多少?我又该如何优化其中的内容?)

  • 我的记忆边界在哪里?(哪信息属于用户级、团队级、组织级?这些数据存储在何处,用户是否可以查看?)

  • 我能否追踪输出结果的(我能通过调试 LLM 的回复,知道具体是哪个输入导致了该回复吗?)

  • 我使用的是单一模型还是多模型?(我是如何根据复杂度、延迟还是成本来分配请求的?)

  • 用户会放心把他们的资金或医疗数据交给我的系统管理吗?(如果不会,我的安全性或反馈机制上还缺失什么?)

图片
一起“三连

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询