支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI 智能体到底应该如何构建?分享 Github 上收获 4k stars 的 12 条原则

发布日期:2025-06-12 12:21:31 浏览次数: 1587
作者:Baihai IDP

微信搜一搜,关注“Baihai IDP”

推荐语

构建AI智能体的黄金法则:12条原则教你打造可靠、可控的智能系统,告别黑箱开发模式。

核心内容:
1. AI智能体的技术演进历程:从有向图到DAG编排工具
2. 构建可靠LLM应用的12个核心工程原则
3. 如何让智能体系统具备错误自恢复能力与可扩展性

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

编者按:AI 智能体到底应该如何构建?是追求复杂的端到端解决方案,还是回归软件工程的本质思维?

我们今天为大家带来的文章,作者的观点是:智能体本质上就是软件,应该用严谨的软件工程原则来构建,而非盲目追求“黑箱式”的复杂框架。

文章从智能体的发展历程出发,深入剖析了从有向图到 DAG 编排工具,再到今天 AI 智能体的技术演进脉络。随后,作者系统性地提出了构建可靠 LLM 应用的12个核心原则。

这篇文章为正在构建 AI 应用的开发者提供了一套完整而实用的方法论,特别适合那些希望摆脱框架束缚、追求技术本质的工程师。相信通过这12个原则的指导,我们能够构建出更加可靠、可控、可扩展的智能体系统。


01

AI Agent 是如何走到今天的

1.1 我的观点仅供参考

无论您是智能体领域的新手,还是像我这样固执的老兵,我都将试图说服您摒弃对 AI Agent 的大部分固有认知,退一步,从第一性原理(first principles)出发重新思考它们。(如果你错过了不久前 OpenAI 发布的内容,这里有个剧透预警:把更多智能体逻辑塞进 API 后面并非正解)


02

智能体本质上是软件,让我们简要追溯其发展历程

让我们回溯智能体的发展脉络。

2.1 60 年前

这个阶段重点探讨的是有向图(DGs)及其无环版本 —— 有向无环图(DAGs)。首先要指出的是...软件本质上就是有向图。这就是为什么我们过去常用流程图表示程序的原因。

image.png

2.2 20 年前

约 20 年前,DAG 编排工具开始流行。我们开始谈论 Airflow[1]、Prefect[2] 等经典工具,以及它们的前辈,还有 dagster[3]、inggest[4]、windmill[5] 等新秀。这些编排工具沿用了相同的图模式,同时增加了可观测性(observability)、模块化(modularity)、重试机制(retries)、管理界面(administration)等功能优势。

image.png

2.3 10-15 年前

当机器学习模型开始展现出实用价值时,我们开始看到融入 ML 模型的 DAG 工作流。一些典型的步骤可能包括“将此列中的文本汇总到一个新列中”或“按严重程度/情感对支持工单进行分类”。

image.png

但归根结底,这些软件在很大程度上还是确定性软件(deterministic software)。

2.4 智能体技术带来的根本性变革

我并非第一个提出此观点[6]的人,但当我开始研究智能体时,最深刻的领悟是:你可以彻底摒弃 DAG 架构。无需软件工程师针对每个步骤和边界条件进行编码,只需赋予智能体一个目标和一组状态转移规则:

image.png

让 LLM 实时做出决策,找出路径。

image.png

这样做的好处是可以减少代码编写量。你只需为 LLM 定义图的"边",由其自主推导"节点"。借此,系统可具备错误自恢复能力,大幅减少代码量,甚至可能发现 LLM 独创的问题解决方案。

2.5 智能体(Agents)的核心运行机制是一个循环体系

换个角度看,这是一个包含 3 个步骤的循环体系:

1)LLM 通过结构化 JSON 输出确定工作流的下一步("工具调用")

2)由确定性代码执行工具调用

3)将工具运行结果追加至上下文窗口

4)不断循环直至判定下一步为"完成"状态

image.png

初始上下文仅是起始事件(可能是用户消息、定时触发任务或 webhook 等),然后我们要求 LLM 选择下一步(工具)或判断任务是否完成。

下面是一个多步骤示例:

image.png

而生成的“materialized” DAG 结构示例如下:

image.png

2.6 “循环往复,直至问题解决”模式的缺陷

该模式最显著的弊端:

  • 当上下文窗口过长时,智能体会迷失方向,他们陷入反复尝试同一种错误方法的循环

  • 字面意思就是这样,仅此一项就足以使该方法失效

即使你没有手动构建过智能体,在使用自动化编程工具时也应当遭遇过这种长上下文问题。系统往往在多次交互后陷入混乱,迫使您重启对话。

我还想提出一个我经常听到的观点,你可能已深有体会:

即使模型支持的上下文窗口越来越大,精准、简洁的提示词始终能获得更优的结果

与我交流过的多数开发者都放弃了"工具调用循环(tool calling loop)"方案,皆因发现超过 10-20 次交互后,LLM 便无法恢复任务状态。即便智能体准确率达 90%,这仍与"可交付客户使用"的标准相去甚远。试想一个网页应用若在 10% 的访问中崩溃,会是一种怎样的用户体验?

2.7 真正有效的方法 —— 微智能体(micro agents)

我在实际应用中观察到一种比较常见的方法,使用智能体架构并将其嵌入到更宏观的、更具确定性的有向无环图(DAG)系统中。

image.png

您可能会问:"为什么在这种情况下还要使用智能体?"我们稍后会详细解释。简而言之,让语言模型管理限定范围明确的任务集合,可以轻松整合实时的人类反馈,并将这些反馈转化为工作流步骤,而不会陷入上下文错误循环(即后文所提到的 factor 1、factor 3、factor 7)。

2.8 现实生活中的微智能体案例

下面这个示例展示了如何使用确定性代码运行微智能体,处理部署过程中的人工介入步骤:

image.png
  • 人工将 PR 合并到 GitHub 主分支

  • 使用确定性代码将修改后的项目部署到预发布环境

  • 使用确定性代码运行预发布环境的端到端(e2e)测试

  • 使用确定性代码将初始上下文"将 SHA 4af9ec0 部署到生产环境"移交智能体进行生产环境的部署

  • 智能体调用 deploy_frontend_to_prod(4af9ec0)

  • 使用确定性代码请求人工批准此操作

  • 人工拒绝操作并反馈"能否先部署后端部分?"

  • 智能体调用 deploy_backend_to_prod(4af9ec0)

  • 使用确定性代码请求人工批准此操作

  • 人工批准进行操作

  • 使用确定性代码执行后端部分的部署

  • 智能体调用 deploy_frontend_to_prod(4af9ec0)

  • 使用确定性代码请求人工批准此操作

  • 人工批准进行操作

  • 使用确定性代码执行前端部分的部署

  • 智能体判定任务成功完成,流程结束!

  • 使用确定性代码运行生产环境的端到端测试

  • 确定性代码任务完成后,若检测到异常,则转交回滚智能体进行故障审查,必要时执行版本回退

image.png

这个示例基于我们为管理 Humanlayer 的部署流程而部署的一个开源智能体(OSS agent),以下是我上周与它的真实对话记录:

image.png

我们没有让这个智能体拥有过多的功能或复杂的职责。LLM 的核心价值在于解析人类的自然语言反馈,并提出更新的行动方案。我们尽可能避免让它同时处理过多无关的任务或记忆冗长的历史记录,使 LLM 专注于 5-10 步的小型工作流。

这里有另一个更经典的客户支持/ chatbot 示例[7]

2.9 那么,智能体的本质究竟是什么?

  • prompt - 告诉 LLM 如何行动,以及它可以使用哪些“工具”。prompt 的输出是一个 JSON 对象,用于描述工作流程中的下一步("工具调用"或"函数调用")。(factor 2)

  • switch 语句 - 根据 LLM 返回的 JSON 内容决定后续操作。(factor 8 的一部分)

  • 累积的上下文 - 记录已执行的操作步骤及其运行结果(factor 3)

  • for 循环 - 循环执行以下操作,直至大语言模型(LLM)返回终止信号(如标记为"Terminal"的工具调用或自然语言响应):将 switch 语句的执行结果加入上下文窗口,并让 LLM 决定下一步动作。(factor 8)

image.png

以“deploybot”为例,我们通过自主掌控流程逻辑和上下文积累,获得了以下优势:

  • 在 switch 语句和 for 循环中,我们可以随时拦截控制流来暂停等待人工输入,或等待长时间运行的任务完成

  • 我们能将上下文窗口轻松序列化存储,实现「断点续传」式的任务暂停与恢复

  • 在 prompt 的设计中,我们可以优化任务指令的传递方式和“当前任务进度”的说明方式


03

factor 01:自然语言转工具调用(Tool Calls)

智能体(agent)构建最常见的模式之一就是将自然语言转换为结构化的工具调用。这是一种功能强大的模式,可以构建能够推理任务并执行任务的智能体。

image.png

这种模式的核心原理,就是实现从自然语言到结构化指令的精准转换:

请为 Terri 生成 750 美元的赞助支付链接,用于支付二月份 AI 创客大会的赞助费用。

最终输出一个结构化对象,用于描述 Stripe API 的调用参数,例如:

image.png

注:实际场景中 Stripe API 的调用更为复杂。一个成熟的智能体需要先获取客户列表、产品目录和价目表等数据,通过关联 ID 构建有效请求参数 —— 当然,这些 ID 也可以直接预置在提示词/上下文窗口中(本质上这两种方式是相通的,下文将具体说明)。

后续可由确定性代码接管该请求参数,并执行相应的业务逻辑。(更多细节将在 factor 3 中说明)

image.png

请注意:完整版的智能体在接收到 API 的调用结果后,会通过循环处理机制最终返回类似这样的信息:

已成功为 Terri 创建 750 美元的支付链接,用于赞助二月份 AI 创客见面会。链接如下:https://buy.stripe.com/test_1234567890

但本节将跳过该环节,将其保留至后续章节实现 —— 开发者可根据实际需求决定是否集成该功能。


04

factor 02:自主掌控提示词

不要直接套用框架自动生成的提示词。

image.png

某些框架会提供这种‘黑箱式’方案:

image.png

这种方案能帮你快速套用顶尖的提示词模板上手,但后期很难精准调整或实施逆向工程,难以确保模型接收的指令完全符合预期。

相反,你要像对待核心业务代码一样对待提示词:

image.png

虽然上面这个示例是用 BAML 工具生成提示词的,但其实你可以根据自己的需求选择任何提示词设计工具,甚至完全不需要借助工具,直接按照模板格式手动编写提示词也是可行的。

自主掌控提示词的核心优势:

  • 完全的控制权:可以精准定制 AI Agent 所需的指令,彻底摆脱“黑箱操作”的束缚

  • 可测试和可评估:像测试普通代码一样,为你的提示词建立完整的测试评估体系

  • 快速迭代:根据实际使用效果,随时灵活调整优化提示词

  • 透明可控:清楚掌握 AI Agent 执行的具体指令内容,没有隐藏逻辑

  • 角色突破:利用那些支持自定义用户/助手角色设定的 API 接口 —— 比如 OpenAI 已弃用的旧版 'completions' 非对话型 API,甚至可以实现一些特殊的模型引导技巧

请记住:提示词(prompts)是连接你的业务逻辑与大语言模型的主要接口。

完全掌控提示词,才能提供生产级 AI Agent 所需的灵活性和提示词控制能力。

虽然没人能断言什么是最佳提示词,但有一点很明确 —— 你需要的是能自由尝试各种可能性。


05

factor 03:自主掌控上下文窗口

与大语言模型交互时,上下文传递不必拘泥于标准消息格式。

在智能体(agent)中,每次向 LLM 提供输入的实质是:“这是目前情况,接下来该干嘛?”

一切皆上下文工程。大语言模型本质上是无状态函数(stateless functions)[8],只负责将输入转化为输出。想要获得优质输出,就必须提供优质输入。

构建优质上下文需包含以下要素:

  • 提示词与指令:给模型的明确操作指引

  • 外部数据源:检索到的文档或知识(例如使用 RAG 技术)

  • 历史状态:过往的工具调用记录、执行结果等操作痕迹

  • 记忆系统:有关联但独立的对话/事件历史记录(Memory)

  • 输出结构化指令:规定模型返回数据的格式规范

image.png

本指南聚焦如何最大限度挖掘现有模型的潜力,以下内容不在讨论范围内:

  • 调整模型参数(如 temperature、top_p、frequency_penalty、presence_penalty 等)

  • 训练自定义的生成模型(completion models)或嵌入模型

  • 对现有模型进行微调

在此重申:虽然无法断言最佳的上下文传递方式,但我知道你希望能够灵活地尝试各种方式。

4.1 标准上下文格式与自定义上下文格式

大多数 LLM 客户端采用如下这种标准消息格式:

image.png

虽然这种格式适用于大多数场景,但若想极致压榨现有 LLM 的性能,就必须以最高效的 token 利用率和注意力分配机制来传递上下文。

若希望突破基于消息的标准格式限制,您可以创建专为你个人的应用场景优化的上下文组织形式。例如,通过自定义数据结构将相关内容整合,根据实际需求打包或拆分到一个或多个用户、系统、助手或工具消息中(具体组合视业务逻辑而定)。

以下示例演示了如何将完整的上下文信息封装于单条用户消息中:

image.png

虽然模型可能通过你提供的工具定义自动推导后续操作步骤,但我们仍建议在提示词模板中明确声明任务目标 —— 主动说明需求始终是更稳妥的做法。

4.2 code example

我们可以采用如下方式构建:

image.png

上下文窗口示例

下面是使用这种方法后上下文窗口的样子:

初始的 Slack 请求:

image.png

列出 Git 标签后:

image.png

错误发生与恢复后:

image.png

此时你的下一步可能是:

image.png
image.png

上文那些 XML 格式的内容仅是一个参考示例 —— 您可以根据实际业务需求,自定义最合适的数据结构。通过灵活尝试不同的上下文组织形式、存储内容和输入大模型的内容,最终输出质量会显著提升。

自主控制上下文窗口的好处:

  • 信息密度:以最适配 LLM 认知的方式组织信息

  • 错误处理:采用有助于 LLM 自主恢复的格式记录错误信息(已修复的错误和失败调用可从上下文中移除)

  • 安全性:主动过滤敏感数据,精准控制输入内容

  • 灵活性:根据使用情况持续优化调整上下文格式

  • token 效率:优化上下文格式,提高 token 效率与模型理解能力

上下文可包含: 提示词(prompts)、指令(instructions)、RAG 文档(RAG documents)、交互历史(history)、工具调用记录(tool calls)、记忆(memory)

请记住,上下文窗口是你与 LLM 交互的主要界面,其结构设计与信息呈现方式将直接决定智能体的效能。

示例 - 信息密度优化(相同的语义信息,更少的 token 消耗量):

image.png

虽然无法预知最优方案,但必须确保系统具备无限试错的可能性——任何可能的尝试路径都应向你开放。


06

factor 04:「工具」本质上只是 LLM 生成的结构化输出

「工具」无需进行复杂设计。其本质是大语言模型生成的结构化输出,用于触发确定性代码的执行。

image.png

以 CreateIssue 和 SearchIssues 这两个工具为例,让大模型(LLM)“调用工具”,本质上就是让它输出一个可解析的 JSON 对象,该对象对应我们要执行的具体工具操作。

这种模式很简单:

1)LLM 生成结构化的 JSON 输出

2)使用确定性代码执行对应操作(如调用外部 API)

3)捕获执行结果并反馈到上下文中

这种设计实现了 LLM 决策逻辑与应用程序执行逻辑的清晰分离 —— LLM 负责决定『做什么』,而你的代码掌控『怎么做』。即便 LLM 调用了某个工具,具体执行方式也不必每次都严格对应单一函数。

如果你还记得前文提及的 switch 语句

image.png

注:关于“plain prompting" vs. "tool calling" vs. "JSON mode”的性能权衡已有诸多讨论。在此附上相关资源链接(参见《Prompting vs JSON Mode vs Function Calling vs Constrained Generation vs SAP》[9]、《When should I use function calling, structured outputs, or JSON mode?》[10]及《OpenAI JSON vs Function Calling》[11]),此处不展开论述。

所谓的"下一步操作"未必只是简单地"运行一个纯函数并返回结果"。当你把"工具调用"单纯视为模型输出的一段 JSON 指令(用于描述确定性代码该执行什么)时,就能解锁极大的灵活性。结合 factor 08 ,这种设计将带来更强大的可能性。


07

factor 05:执行状态与业务状态的统一

即便在 AI 领域之外,许多基础设施系统也试图将“执行状态”与“业务状态”分离。对 AI 应用而言,这种分离可能涉及复杂的抽象机制来追踪当前步骤、下一步骤、等待状态、重试次数等。这种分离带来的复杂性可能是值得的,但对你的使用场景而言可能是过度设计。

你可以自行决定什么最适合你的应用。但不要认为必须将这两者分开管理。

更清晰的定义:

  • 执行状态(Execution state):当前步骤、下一步骤、等待状态、重试次数等

  • 业务状态(Business state):智能体工作流中已发生的事件(如 OpenAI 消息列表、工具调用及结果列表等)

如果可能,尽量简化 —— 尽可能将它们统一起来。

image.png

实际上,你可以通过工程化设计,直接从上下文窗口推断所有执行状态。多数情况下,执行状态(当前步骤、等待状态等)不过是已发生事件的元数据(metadata)。

当然,有些内容无法放入上下文窗口(如会话 ID、密码上下文等),但你的目标应该是尽量减少这类例外。通过遵循 factor 3,你可以精准控制哪些信息真正输入给 LLM。

该方法具有以下优势:

  • 简洁性:所有状态只有一个真实来源

  • 序列化:工作流可轻松实现序列化/反序列化

  • 调试便捷:完整的历史记录一目了然

  • 扩展灵活:仅需新增事件类型即可扩展新的状态

  • 断点续传:通过加载工作流可从任意节点恢复执行

  • 程复刻(Forking):可以在任何时间点复制工作流子集至新上下文/状态ID,实现在工作流的复刻(fork

  • 人机交互和可观测性:工作流可轻松转换为 Markdown 文档或可视化 Web 界面


08

factor 06:通过简单的 API 实现启动/暂停/恢复

智能体的本质是程序,其生命周期管理应符合我们对常规程序的预期 —— 能够便捷地启动、查询、恢复和终止。

image.png

需确保终端用户、应用程序、业务管道及其他智能体均可通过轻量级 API 接口快速部署新智能体实例。

智能体及其编排的确定性代码须具备长时操作自暂停能力。

需支持通过 Webhook 等外部触发器实现智能体断点续执,且无需深度对接智能体编排系统。

factor 6 与 factor 5 和 factor 8 存在较强的关联,但可独立实现。

需特别注意,多数现有的 AI 编排系统虽支持暂停恢复功能,但在『工具选定』与『工具执行』两个状态节点之间的临界区间,多数系统无法保持状态持久化能力(详见 factor 7 和 factor 11 的技术解析)。


09

factor 07:通过工具调用实现人机协同

默认情况下,LLM API 在生成模型响应时,首先会面临一个关键的、高风险的词元选择:是返回纯文本内容,还是返回结构化数据?

image.png

系统将大量决策权重放在首个词元的选择上。例如在查询“东京天气”时,首个词元可能是:

"东京"

而在 fetch_weather(获取天气)功能中,则可能是表示 JSON 对象开头的特殊词元。

|JSON>

更优方案是让大语言模型始终输出 JSON 结构化数据,然后通过自然语言词元(如 request_human_input 或 done_for_now)来声明意图,而不是使用像 check_weather_in_city 这样的"标准"工具。

需特别注意:此方案可能不会直接提升系统性能指标,但必须通过持续实验验证 —— 工程师应保留尝试非常规手段的自由度,这是获得最优解的必经之路。

image.png

后续,您可能会收到来自处理 Slack、电子邮件、短信或其他事件的系统的 webhook 通知。

image.png

上文整合了 factor 3、4、5、8 的方案特征。

若采用 factor 3 中的类 XML 格式,那么经过数次交互后,上下文窗口可能会是这样的:

image.png

优势亮点:

  • 清晰的指令:针对不同人机交互场景的工具设计,可大幅提升大语言模型(LLM)输出的精准度。

  • 内循环与外循环机制:该机制使智能体工作流突破传统 ChatGPT 式交互框架,支持逆向流程触发 —— 控制流与上下文初始化可由智能体主动发起至用户(例如:通过定时任务或事件自动激活的智能体服务)。

  • 多用户协同:依托结构化事件机制,可高效追踪并协调多用户输入数据流。

  • 多智能体协作:通过轻量级抽象层设计,快速扩展智能体间的请求与响应能力

  • 持久化运行:结合 factor 6 的启停控制能力,可构建高稳定、可观测的多角色持久化工作流。

有关外循环智能体(Outer Loop Agents)的更多信息,请点击此处[12]

image.png

与 factor 11 完美结合 —— 随时随地触发,满足用户需求。


10

factor 08:掌控你的控制流

如果你能掌握你的控制流,就可以实现更灵活、强大的功能。

image.png

根据具体应用场景构建专属控制逻辑,精准匹配业务场景。当特定类型的工具调用需要中断循环等待人工响应或长时任务(如训练流水线)时,您可设计灵活的中断机制。建议集成以下自定义功能:

  • 工具调用结果的摘要与缓存

  • 使用 LLM 对结构化输出进行校验、评估

  • 上下文窗口压缩或其他内存管理方案

  • 全链路日志追踪与性能监控

  • 客户端速率限制策略

  • 持久化的休眠/暂停/事件等待机制

下方示例展示了三种典型的控制流模式:

  • request_clarification:模型请求补充信息时,中断当前循环流程,等待人工响应

  • fetch_git_tags:当模型请求 Git 标签列表时,系统会实时获取标签数据并更新上下文,直接将结果反馈给模型

  • deploy_backend:模型发起后端部署请求时,因涉及高风险操作,中断流程等待人工审核确认

image.png

这种模式允许你根据需要中断和恢复智能体的工作流程,从而创建更自然的对话和工作流。

举个例子,我对所有 AI 框架的首要功能需求就是:正在工作的智能体能够中断操作并在之后恢复运行,特别是在工具选择和工具调用之间的时刻。

如果缺乏这种可恢复性/精细控制能力,就无法在工具调用执行前进行审核(review/approve),这意味着您被迫只能选择以下方案:

1)在等待长时间任务完成时,将任务及其上下文状态(变量、堆栈等)保留在内存中(类似while...sleep),如果进程中断则必须从头开始

2)限制智能体只能执行低风险、低影响的调用,如研究和摘要

3)允许智能体执行更重要、更有用的操作,然后只能祈祷它不会搞砸

您可能会注意到,这一点与 factor 5 及 factor 6 密切相关,但也可以独立实现。


11

factor 09:将错误信息压缩至上下文窗口

这一点虽然简短,但值得一提。智能体的优势之一在于“自我修复”——对于短任务,大语言模型(LLM)可能会调用某个失败的工具。优秀的 LLM 通常能够读取错误信息或 Stack Trace 信息,并在后续工具调用中调整策略。

大多数框架已实现这一功能,但你也可以只做到这一点,而无需实现其他 11 个 factor。例如:

image.png

你可能需要为特定的工具调用实现一个错误计数器(errorCounter),将单个工具的重试次数限制在 ~ 3次以内,或者根据实际需求调整业务逻辑。

image.png

当连续错误次数达到某个阈值时,无论是模型自主决策还是通过预编程规则强制接管控制流,都可以选择升级至人工处理。

优势:

  • 自我修复能力:大语言模型能够解读错误信息,并在后续工具调用中自动调整执行策略

  • 持久运行机制:单一工具调用失败不会导致系统中断,智能体程序可持续执行任务

需要提醒的是,智能体过度依赖这种自我修复机制时,可能导致智能体在错误处理过程中无法有效突破现有逻辑框架,出现反复报错的情况。

此时,factor 8 和 factor 3 就派上用场了 —— 你不必直接把原始错误丢回给系统,而是重构错误表达方式、从上下文窗口移除冗余的历史记录,避免干扰后续决策,或者采用其他有效的确定性策略(只要能确保智能体程序回归正轨)。

防范陷入错误循环的最核心策略,是遵循 factor 10。


12

factor 10:小型化、功能聚焦的智能体

与其构建试图包办一切的大型智能体,不如开发专注于某一单一功能的小型智能体。智能体只是一个更大的、主要由确定性因素决定的系统中的基础组件之一。

image.png

这里的关键之处在于大语言模型(LLM)的局限性:任务越庞大复杂,所需任务步骤就越多,就意味着需要更长的上下文窗口。随着上下文增长,大语言模型更容易迷失方向或偏离重点。通过将智能体的功能限定在特定领域(3-10 个步骤,最多 20 个任务步骤),我们可以保持上下文窗口的可管理性,确保大语言模型的高效运行。

小型化、功能聚焦的智能体的优势:

1)可管理的上下文:更小的上下文窗口意味着更优的大语言模型表现

2)职责明确:每个智能体都有清晰的功能边界和设计目标

3)可靠性更高:在复杂的工作流程中迷失方向的可能性更低

4)更易于测试:更简单地测试和验证特定功能

5)调试优化:问题发生时更容易定位和修复

12.1 如果 LLM 变得更聪明了呢?

如果大语言模型的智能程度足够高,能处理 100+ 步骤的工作流,我们还需要这种设计吗?

tl;dr:需要。虽然智能体和大模型进步后可能自然而然地拥有处理更长上下文的能力,这意味着能处理更多更大的 DAG。但采用小型化、功能聚焦的架构设计,既能确保你在第一时间获得可靠的结果,又为未来大模型的上下文窗口扩容时逐步扩展智能体范围做好准备。(如果你重构过大型的确定性代码库,此刻应该会心一笑)

image.png

有意识地确定智能体的规模/范围,并且只在能够保证质量的情况下扩展,这是关键所在。正如 NotebookLM 开发团队所言[13]

"在 AI 开发中,那些最惊艳的突破时刻往往发生在我将将触及模型能力边界的时候"

无论这个能力边界在哪里,如果你能找到边界并始终如一地把握住它,你就能打造出惊艳的用户体验。这个领域有很多技术护城河可以构建,但一如既往,这需要严谨的工程实践。


13

factor 11:智能体系统支持多入口触发,且响应与触发渠道保持一致

当您已落实 factor 6 和 factor 7 后,便可无缝集成本原则方案。

image.png

支持用户通过 Slack、邮件、短信等任意渠道唤醒智能体,并确保响应始终在原对话流中完成。

优势:

  • 满足用户需求:打造拟人化的 AI 应用体验,让用户感受如真人协作或至少达到数字同事般的自然交互

  • 外循环智能体:支持非人工触发(系统事件/定时任务/故障告警等),可自主运行5-90分钟,关键决策节点自动请求人工介入(需审批/获取反馈/请求协助)

  • 高风险操作授权机制:通过快速人工复核机制,可授权智能体执行高风险操作(如外发邮件、生产数据更新等)。明确、标准化的管控体系既保障操作可追溯,又能提升智能体执行复杂任务的可靠性。


14

factor 12:将智能体设计为符合“无状态归约器”模式

image.png
image.png

END

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询