免费POC,零成本试错

AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


通用型AI Agent?业务落地还得靠Workflow!

发布日期:2025-08-20 07:15:29 浏览次数: 1536
作者:智能前哨

微信搜一搜,关注“智能前哨”

推荐语

通用型AI Agent虽灵活,但业务落地还需Workflow加持,混合模式才是最优解。

核心内容:
1. 通用型AI Agent与Workflow的优劣势对比
2. Workflow五大核心模式解析
3. "Workflow+LLM/Agent"混合模式的实践策略

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
前言:
本文将围绕“通用型AI Agent与Workflow的对比”以及“Workflow的五大常见模式”两大核心主题展开深入探讨。

一、通用型AI Agent VS Workflow

近期我们聚焦于Agent开发,尤其在具体业务场景中实践了多种Agentic Workflow。

市场上涌现了不少通用型AI Agent产品,如Manus AI、大厂的Deep Research等。测试表明,这些工具表现不俗,但在稳定性和准确性方面仍存在提升空间。

核心结论: 通用型AI Agent虽具备卓越的灵活性与问题处理能力,但目前尚无法完全替代Workflow。要实现业务的规模化、低成本、高效率以及可控可测目标,最佳策略是将两者结合:采用 “Workflow + LLM/Agent” 的混合模式,在有效控制成本与风险的同时,充分发挥通用型AI的适应性与创造力

1.通才(Generalist)VS 专才(Specialist):先验知识的价值

实际项目中,我们通常积累了丰富的领域相关经验与先验知识。例如,如何高效抓取特定网站信息,或如何在特定流程节点进行快速校验。这些知识使我们能够构建更高效、可靠的定制化流程,避免通用型AI Agent进行大量低效的探索性尝试。这类似于强化学习:过度的探索(exploration) 往往造成资源浪费,而融入领域知识(domain knowledge) 的利用(exploitation) 则能显著提升效率。

2.速度与成本考量:聚焦核心,减少浪费

若全程依赖通用型AI Agent处理所有环节,在执行那些结构清晰、无需复杂推理的既定步骤时,往往会消耗不必要的Token和执行时间。对于此类固定且结构化的任务,直接执行预设的Workflow方案更为高效和经济。仅在流程中涉及复杂决策、处理非结构化信息或应对高度不确定性任务时,再调用大语言模型(LLM)。此策略能最大化LLM的推理优势,同时有效控制额外成本与计算资源浪费。

3.可扩展性模块化设计与灵活性保障

将任务拆解为独立模块(Block),使其可单独开发、测试与部署,最终串联成完整Workflow。
这种模块化架构在大规模应用(scale up)中优势显著:如需扩展系统功能或新增数据源,只需对相应模块进行扩展或替换即可,无需通用型AI Agent每次“从头学习”整个流程。

4.可评估性:强化监控与稳定性保障

Workflow模式的核心优势之一在于其对每个环节输入输出的清晰掌控。
一旦某环节出现异常,可快速定位并进行针对性优化。对系统可预测性与稳定性的要求,往往依赖于精细化的评估与监控手段。
而完全依赖一个全自动的通用型AI Agent,则会给调试与质量把控带来更大挑战。

5.AI本质是搜索:限定搜索空间 VS 全局探索

广义而言,许多AI任务可视为搜索问题。通用型AI Agent扩展了搜索空间,支持更广泛的探索,但并非所有场景都需要如此宽泛的搜索。
Workflow则侧重于利用已知的先验知识与特定业务流程,直接导向最优(或接近最优)的解决方案,即强化“利用(exploitation)”。
通用型AI Agent则更偏向“探索(exploration)”。若完全放任其探索,虽可能发现更具创造性的方案,但需付出更高成本并牺牲效率。

6.平衡与结合:实践中扬长避短

因此,在实际业务落地中,应基于需求与资源状况进行合理设计:

对于重复性高、结构明确的任务: 采用固化的Workflow方案,确保稳定性与成本效益。

对于需要灵活认知、复杂推理或应对未知情况的任务: 则调用通用型AI Agent强大的自然语言处理与思考能力。
通过定义清晰的输入输出规范,并对关键步骤实施精细化评估与监控,实现Workflow与Agent的协同互补。

二、Workflow的5种常见模式

从Block开始

无论是Workflow还是Agent,其基础调用单元均为Block(如下图所示)。
一个Block即是一个增强的LLM:它通过整合检索(Retrieval)、工具调用(Tool Use)与记忆读写(Memory R/W)功能构成。
LLM调用各类工具所遵循的协议称为ModelContextProtocol (MCP)
以Block为基石,即可构建复杂的Workflow。以下梳理五种常见模式:

工作流模式1:提示词链(Prompt Chaining)

如下图所示,将多个Block按顺序串联。每个Block执行后,根据其输出决定是否触发后续环节,类似于编程中的IF-THEN逻辑。
此模式适用于可清晰串行拆解的任务,例如:

多语言营销文案: 生成文案 -> 翻译成目标语言。

制式文章撰写: 生成大纲 -> 按标准检查大纲 -> (若合格) 基于大纲撰写文档。

工作流模式2:路由(Routing)

在提示词链基础上增加一个分类路由环节。基于输入内容进行分拣,确定后续执行哪个下游流程

类似编程中的SWITCH-CASE 逻辑。

此模式适用于需要前置分类的任务,比如:

客服场景:

识别用户反馈类型(如退款、咨询、技术支持)-> 路由至对应处理分支。

大小模型分流:

识别问题复杂度 -> 简单问题路由至小模型 -> 复杂问题路由至大模型(优化成本与效率)。
例如在应用DeepSeek时,并非所有问题都需要其“深思熟虑”,部分查询可直接检索解决。

工作流模式3:并行化(Parallelization)

当父任务可拆解为多个可并行执行的子任务时,采用此模式:先拆分任务,并行执行子Block,最后聚合结果。
典型场景如代码漏洞检查:使用不同Prompt触发多角度检查 -> 并行执行 -> 聚合生成报告。

工作流模式4:协调器-工作器(Orchestrator-Workers)

此模式结合了“路由”与“并行化”的特点。一个协调器(Orchestrator)
 LLM节点负责动态拆解任务,然后选择一个或多个工作器(Worker)
 LLM节点进行处理,最终整合输出结果。

工作流模式5:评估器-优化器(Evaluator-Optimizer)

此模式将LLM节点分为两类:生成器(Generator) 负责输出内容,评估器(Evaluator) 负责评判质量。
当输出有明确评估标准且可通过迭代优化提升时适用此模式。
典型场景如文学翻译:细微措辞差异影响质量,评估器可向生成器提供反馈以改进结果。
梳理上述五种模式可见,Workflow具备强大的可组合性
例如,可将前四种Workflow作为“评估器-优化器”模式中的生成节点,再引入评估节点对结果进行评估并提出优化建议。
我们的核心关注点始终在于如何利用现有技术体系解决实际业务问题,为客户创造更大价值,而非技术本身。

我们无需复刻OpenAI Deep Research或Manus AI;凭借我们的专业知识,在特定细分领域(Niche)做到比他们更优,这已足够——这正是我们的差异化竞争力所在。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询