微信扫码
添加专属顾问
我要投稿
通义团队开源两大智能体系统,揭秘多智能体协同工作的7种设计模式,带你快速掌握智能体技术核心。 核心内容: 1. 通义开源Alias-Agent和Data-Juicer Agent两大智能体系统架构解析 2. 多智能体协同的7种设计模式详解(含工作流/路由等核心模式) 3. 智能体技术核心组件:反思/计划/推理/RAG等模块运作原理
先播放一条最新新闻,通义团队官宣开源了两个智能体Alias-Agent和Data-Juicer Agent。
Alias-Agent提供了RaAct,Planner,DeepResearch三种模式,以实现灵活的任务执行。
DataJuicer 智能体是一个数据专员,由数据处理智能体,代码开发智能体,MCP 智能体,数据分析与可视化智能体,问答智能体五个智能体组成。
看到这里已经相当炸裂了!可能很多伙伴对智能体(Agent)的范式不熟悉,还不理解ReAct、Planner、反思叭叭这些名词。那你们就来对了地方,我用最容易理解的方式带大家一起看下智能体内部是什么样子的。
产品化的智能体由多Agent,反思,计划,推理与行动,记忆,RAG,工具,MCP组成的。首先聊下“Multi-Agent”,它非常好玩!
二、Multi-Agent 的7种设计模式
要让AI代替人工作,现阶段的单体智能体(仅通过系统提示词赋能的LLM)是很难实现的。我们很快意识到,要构建高效的系统,需要多个专业化智能体协同工作、自主组织。为实现这一目标,AI 智能体领域已涌现出多种架构模式。多个智能体组成实现的,也就是Multi-Agent,发展到现在有7种实现方式。
1. 工作流模式
在《Agentic Design Patterns》中叫Prompt Chaining,每个智能体都逐步地完成输出,比如一个生成代码,另一个审核代码,第三个部署代码。每一步的输出作为下一步的输入。这种信息传递建立了依赖链,前序操作的上下文和结果会引导后续处理,使 LLM 能够在前一步基础上不断完善理解,逐步逼近目标解。
他非常适合应用在工作流自动化、ETL和多步骤推理pipeline场景。
2. 路由模式
路由模式为智能体的操作框架引入了条件逻辑,使其从固定执行路径转变为动态评估标准,从一组可能的后续动作中进行选择的模式,从而实现一套更灵活,并且具备上下文感知的。一个控制器智能体将任务分配给合适的专业智能体,这是上下文感知智能体路由的基础,正如在MCP、A2A框架中所看到的那样。
路由模式的实现有四种:
•根据LLM路由,通过提示语言模型分析输入,并输出指示下一步或目标的标识符或指令。这里有显式路由和隐式路由两类,显示直接使用智能体的结构化输出来确定将消息路由到哪个智能体。隐式路由是将下游智能体包装成工具函数,这样路由智能体就可以根据用户查询决定调用哪个工具。
""" 伪代码示例 """router = ReActAgent( name="Router", sys_prompt="#角色#你是一个路由智能体。你的目标是将用户查询路由到正确的后续任务,注意你不需要回答用户的问题。 #任务#选择正确的后续任务,如果任务太简单或没有合适的任务,则选择 ``None``", model=ChatModel( model_name="gpt-4", api_key="", stream=False, ))
根据Embedding路由,利用嵌入能力,将查询路由到最相似的路径上,适用于语义路由,即决策基于输入的含义而非关键词。
""" 伪代码示例 """def __init__(self):# 使用轻量级的句子编码模型self.model = ChatModel( model_name="gpt-4", api_key="", stream=False, )# 定义不同的路由能力和对应的处理函数self.routes = {'code_help': {'description': '编程,代码','handler': self.handle_code_question},'general_chat': {'description': '聊天,日常对话','handler': self.handle_general_chat}}# 预计算所有路由描述的嵌入向量self.route_embeddings = {}for route_name, route_info in self.routes.items():embedding = self.model.encode([route_info['description']])self.route_embeddings[route_name] = embeddingdef route_query(self, user_question):# 1. 将用户问题转换为嵌入向量question_embedding = self.model.encode([user_question])# 2. 使用余弦计算与各个路由的相似度similarities = {}for route_name, route_embedding in self.route_embeddings.items():similarity = cosine_similarity(question_embedding, route_embedding)[0][0]similarities[route_name] = similarity# 3. 选择相似度最高的路由best_route = max(similarities, key=similarities.get)best_score = similarities[best_route]# 4. 调用对应的处理器handler = self.routes[best_route]['handler']response = handler(user_question)return {'route': best_route,'confidence': best_score,'response': response}....
•根据定义规则路由,硬编码方式,根据关键词、模式或结构化数据进行路由。此方法比 LLM 路由更快、更确定,但灵活性较低。
•根据自训小模型路由,采用如分类器等判别模型,在小规模标注数据集上专门训练以实现路由任务。与向量嵌入方法类似,但其特点是监督微调过程,路由逻辑编码在模型权重中。与 LLM 路由不同,决策组件不是推理时执行提示的生成模型,而是已微调的判别模型。LLM 可用于生成合成训练数据,但不参与实时路由决策。
3. 并行模式
每个智能体负责处理不同的子任务,例如数据爬虫、网络检索和摘要生成,它们的输出会合并为一个单一结果。非常适合减少高吞吐量管道中的延迟。(如文档解析或API编排)
4. 循环模式
智能体不断优化自身输出,直到达到预期质量。非常适合校对、报告生成或创意迭代,在这些场景中,系统会在确定最终结果前再次思考。反思就是在此模式上进行的优化。
5. 聚合模式
许多智能体生成部分结果,由主智能体将这些结果整合为一个最终输出。因此,每个智能体都形成一个观点,而一个Master智能体将这些观点汇总成共识。在RAG的检索融合、投票系统等场景中很常见。
6. 网络模式
这里没有明确的层级结构,智能体之间可以自由交流,动态共享上下文。用于模拟、多智能体游戏以及需要自由形式行为的集体推理系统中。agentscope-samples ,模拟了9个智能体的狼人杀游戏。
7. 层级模式
一个顶级规划智能体,将子任务分配给工作智能体,跟踪它们的进度,并做出最终决策。这和经理及其团队的工作方式完全一样(很多中间件的架构也是类似这种模式如Redis、ES、Nocas)。意图识别就是采用此模式。
小节:
我们一直在思考的一件事,不是哪种模式看起来最酷,而是哪种模式能最大限度地减少智能体之间的摩擦。启动10个智能体并称之为一个团队很容易。难的是设计沟通流程,以确保:没有两个智能体会做重复工作。每个智能体都知道何时行动何时等待,使这个系统作为一个整体,比其任何单个部分都更智能。为此我们遵循 building-effective-agents 设计。
三、Multi-Agent 框架
多智能体模式将人工智能工作流构建为一个智能体团队,它们相互协作,每个智能体都有明确的角色。每个智能体能够感知输入、进行推理(通过思维链)并执行操作以完成子任务。每个智能体通常都配置有特定角色,并且只能访问该角色所需的工具或信息。例如,PM AGent负责需求判断是否需要其他智能体参与,若需要技术决策则联动Tech lead agent。智能体将循环进行思考(“思考……”)和行动(“行动……”),直到完成其工作部分的任务。如下图
以上简单介绍了多智能体的设计模式,那么当下是不是已经有了成熟的架构供我们使用呢?答案是肯定的!
1.AutoGPT:Github 180k Star
2.dify: Github 118k Star
3.AutoGen: Github 51.4k Star
4.CrewAI:Github 40.1k Star
5.LangGraph: Github 20.6k Star
只要“问题不可完全穷举、要跨多系统查证、并且需要在对话中澄清、协商、决策”,就更应该用 Agent 框架,而不是纯 Workflow。
Workflow 在对话中的“澄清—再决策—再行动” 并不天然友好,需要把每一步提问、回答、重试都画成节点,复杂而脆弱。
场景:用户发起:“我的包裹还没到,怎么办?”
通过Workflow创建如下智能体:(先不期待GPT-6 会自主思考的智能体)
•意图识别智能体:识别用户诉求(查询进度/催促/投诉/报损/退货等)
•物流状态智能体:实时拉取承运商状态,判断包裹位置、异常
•政策规则智能体:查询当前时段政策(节假日、大促、平日),判断是否特殊处理
•用户画像智能体:判断用户等级、历史行为、是否会员
•异常检测智能体:分析是否有报损、拒收、欺诈等信号
•澄清与补充智能体:信息不全时自动向用户提问,补齐决策所需信息
•解决方案生成智能体:综合所有智能体结果,输出最优处理方案(比如:建议等待/补发/赔偿/升级处理/转人工等)
智能体数量✖️物流状态✖️用户等级✖️物流政策....你的分支会爆炸。所以需要用Dify这类的可以支持动态决策,动态推理和澄清的智能体框架。
Agent 框架解决的核心问题
以 AutoGen、CrewAI 这类 Agent 框架为例,它们把“在对话里动态规划与调用工具”作为第一性能力:
场景:用户说“我10.1买的手机现在还没到,给我退货!另外,你们的运费险的保账期是多久?”
一个合格的客服 Agent 团队会做什么?
没有路由决策,首先会动态匹配所有Query,对Query进行改写成“查询用户的订单”,“用户想要退货”,“运费险的保账范围和条款”。
1.意图识别 + 澄清
◦ Planner Agent:拆出多意图(物流异常、退货、计费异常、运费险条款),先问关键(订单号、地址)。
2.跨系统取证
◦ OMS/物流工具:查轨迹与 SLA;
◦ 计费/支付工具:核对重复扣款交易;
◦ CRM:看是否 Plus、是否有历史补偿记录;
◦保库:查询运费险
3.政策推理与合规
Policy Agent:套用“假期延误 + Plus + 运费险”的组合条款,评估可给的补偿区间、是否触发风控人工复核。
这些动作里,很多步骤无法事先“画”成固定分支,需要在对话上下文里做决策、需要跨工具动态组合、需要“问一句 → 查一下 → 再决定”,这正是 Agent 的强项。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-12
国内版的 NotebookLM 来了,甚至更强
2025-11-12
从 Palantir看:动态本体如何成为企业级AI的核心范式
2025-11-12
从代码生成到自主决策:打造一个Coding驱动的“自我编程”Agent
2025-11-12
AI 智能体时代的战略框架: QCEA 量子 - 复杂 - 熵适应框架
2025-11-12
麦肯锡2025AI状态报告
2025-11-12
大模型不再靠“微调”进化:斯坦福提出ACE框架,用“上下文”让智能体自我成长
2025-11-12
Claude Skills用「一个文件夹」重新定义AI扩展能力
2025-11-12
Inside Cursor | AI时代管理消失,创造开始
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-19
2025-09-17
2025-08-19
2025-09-29
2025-11-12
2025-11-10
2025-11-09
2025-11-09
2025-11-08
2025-11-06
2025-11-06
2025-11-06