微信扫码
添加专属顾问
我要投稿
在AI江湖中,气宗与剑宗之争从未停歇:是依赖强大模型还是精妙流程?本文带你探索两者融合之道。 核心内容: 1. 气宗与剑宗在AI领域的核心差异与各自优劣势 2. 大模型时代下工作流设计的演进与挑战 3. 如何根据实际场景平衡模型能力与流程设计
最近徒手做了一个workflow的框架:https://github.com/ashione/vertex,对agent构建有了一定的了解,这篇文章主要根据个人经验讨论一些llm和agent上的思考:在 AI 的江湖里,气宗代表"模型至上",剑宗则崇尚"流程为王";面对飞速演进的大模型与百花齐放的工具链,我们真的只能二选一吗?
气宗(Model-Centric):相信"大力出奇迹",投入资源打造或调用更强大的 LLM,让单一模型尽可能解决所有任务。
剑宗(Workflow-Centric):认为"巧劲胜蛮力",通过工作流、外部工具与多模型协作,把复杂任务拆成若干简单步骤,各施所长。
这两条路线都已在实践中取得成功,也都暴露了局限。真正的挑战是:时代在变,我们该怎样权衡?
回顾无 LLM 时代:在 2010~2020 年的深度学习黄金十年里,计算机视觉主要依赖 CNN 卷积网络(如 ResNet、EfficientNet)完成图像分类、目标检测、分割等任务;自然语言处理领域则以 RNN/LSTM、Seq2Seq、Transformer-Encoder 为主,分别用于情感分析、机器翻译、命名实体识别等。它们通常聚焦单一功能,需要通过流水线将多个专用模型串联(如 OCR + 关系抽取 + 规则引擎)才能完成复杂任务,这也催生了早期的Pipeline/Workflow 设计理念。LLM 的出现把多任务能力"折叠"到同一个参数空间中,大幅简化了模型数量,却把"提示工程"和"工具调用"推至前台——于是,新的编排问题再次浮现。
局限:
- 成本高(推理价格、显存消耗)
- 行为不稳定,可解释性差
- 与外界交互受限(文件系统、互联网、专用 API)
进一步思考:
当模型规模受限(如本地 7B/13B 参数小模型)或推理成本受限(边缘端部署、隐私环境)时,单纯依赖气宗会放大其推理、记忆和工具使用方面的短板。这时,通过精心设计的流程编排(剑宗思路)可以将"大任务"拆解为模型可承受的小步骤,并结合检索、脚本执行、规则引擎等外部能力弥补模型不足,实现"以弱胜强"。
局限:
- 设计复杂度高,初始开发时间长
- 需要维护工具链与运行时环境
- 对 Prompt 与模型能力仍有依赖
推理能力 | ||
可解释性 | ||
集成外部知识 | ||
维护成本 | ||
创新速度 |
OpenAI | |||
Google (DeepMind) | |||
Microsoft | |||
DeepSeek (DeepSeek AI) | • R1 模型内置 "Reasoning" 输出 | ||
Alibaba (Tongyi Qwen) | • 开源社区活跃 | 开源+企业插件 | |
ByteDance (Doubao) | • 深度融入 Feishu、抖音等业务流程 | ||
Anthropic | |||
社区 (LangChain/LlamaIndex) |
可以看到:没有哪家只走单一路线。即使是最偏气宗的厂商,也在布局工具调用;而最重流程的框架,也依赖更强大的模型以减少链路复杂度。
当"气宗"卷模型、"剑宗"卷编排,公有云厂商必须同时扮演好算力底座与生态中枢两种角色,才能为上下游提供真正的气剑双修能力。
一句话:云厂商要做到"硬件可随调、模型可选型、流程可编排、数据可托管、合规可背书、生态可共享",才能在这场 AI 新武林中稳坐气剑双修的桥头堡。
当"剑宗"从单一工作流升级到多 Agent 协作时,信息传递成为新的技术瓶颈。就像武侠小说中"六脉神剑"需要内力相通,多个 Agent 之间的状态同步、消息路由、冲突解决也需要一套完整的"通信协议"。
消息队列 | |||
事件驱动 | |||
共享状态 | |||
API 网关 | |||
专用协议 |
OpenAI Swarm:采用Handoff机制,Agent 间通过结构化消息传递上下文,但缺乏全局状态管理。
LangChain Multi-Agent:基于"Supervisor"模式,一个主 Agent 协调多个子 Agent,但容易成为瓶颈。
Anthropic Claude Team:通过"共享工作空间"概念,多个 Agent 在同一个对话上下文中协作,但扩展性有限。
多 Agent 协作的本质不是简单的 Prompt 优化,而是复杂的 Context 工程。每个 Agent 都有自己的"认知边界"和"记忆容量",如何让它们共享上下文、理解彼此、协调行动,是当前技术栈的空白地带。
LangChain Memory | ||
Vector Database | ||
Event Sourcing | ||
GraphQL | ||
WebSocket |
OpenAI Function Calling:通过结构化函数定义 Agent 能力边界,但缺乏 Context 传递机制。
Anthropic Claude Tool Use:支持工具调用,但 Context 管理仍依赖外部系统。
Vertex WhileVertexGroup:支持循环和条件,但 Context 工程需要开发者手动设计。
AutoGen:提供多 Agent 对话框架,但 Context 压缩和角色管理仍需优化。
一句话:多 Agent 协作的难点不在于让每个 Agent 更聪明,而在于让它们"心有灵犀"。Context 工程就是让多个 Agent 共享同一个"大脑",而不是简单的"多脑并行"。
在多 Agent 协作中,Context 与 Memory 的取舍是一门经验学问,没有放之四海而皆准的公式。就像武侠中的"内力"与"招式",Context 是当下的"气",Memory 是积累的"功",两者如何调配决定了 Agent 的"战斗力"。
时效性 | ||
容量 | ||
访问速度 | ||
更新频率 | ||
成本 |
模式一:分层架构
Context(实时):用户当前问题+最近3轮对话Memory(短期):最近1小时内的关键信息Archive(长期):历史数据、知识库
模式二:动态平衡
模式三:智能缓存
在多 Agent 协作中,Context 与 Memory 的管理模式直接影响系统的扩展性、一致性和性能。就像武林中的"分散修炼"与"集中传功",两种模式各有优劣。
集中式管理模式
架构 | ||
一致性 | ||
性能 | ||
扩展性 | ||
故障影响 | ||
适用场景 |
分布式管理模式
架构 | ||
一致性 | ||
性能 | ||
扩展性 | ||
故障影响 | ||
适用场景 |
混合管理模式
实际应用中的选择策略
行业实践对比
OpenAI Swarm | |||
LangChain | |||
Anthropic Claude Team | |||
Vertex Multi-Agent |
未来发展趋势
一句话:Context 和 Memory 的管理模式不是非此即彼的选择,而是需要根据规模、延迟、一致性要求动态调整的艺术。就像武林中的"内外兼修",既要内力深厚(集中式),也要招式灵活(分布式)。
编排的本质:无论时代采用 CNN、BERT 还是 GPT-4o,只要涉及 多步骤、多工具、多需求,就绕不开"把零散能力按业务目标串联"这一动作——这便是编排。它不是技术附属品,而是一种方法论:
从这个角度看,AGI 也可以被视作"人类应用逻辑"的延伸:当模型足够强大时,我们把更多流程下沉到模型内部;当模型仍有限时,我们在外层用编排去弥补。二者并非此消彼长,而是在不同抽象层次互补。
高性价比做法:核心逻辑用工作流,知识与创意环节交给强模型。
# 直接让大模型完成内容生成vertex chat "用三句话介绍量子计算"
# 使用预设工作流 + 多工具完成市场调研vertex deepresearch --topic "电动车市场"
Vertex 既内置多模型( DeepSeek
, Tongyi
, 本地 Ollama
) ,又提供可视化工作流编辑器,天然支持"气剑双修"。
工作流管理领域并不缺少"老牌选手"。在科研和数据工程圈子,Luigi、Snakemake、Nextflow、Yadage、CWL、Reana 等框架早已成名,并在 CERN 等机构广泛使用(详见 Schmitt et al., 2024)。在 AI 圈,又有 Airflow、Prefect、Dagster、LangChain Flowise 等新星。那么,Vertex 为什么还有存在的必要?
结论:这些框架关注批量文件处理、可复现科研,而非实时、多模态、Tool-Calling 的 LLM 工作流。
一些观察:
Dify | |||
扣子 (Coze) | |||
魔搭社区 (ModelScope) | |||
LLMVertex/FunctionVertex/WhileVertexGroup
等节点,天然兼容 OpenAI、DeepSeek、通义千问、Ollama 等多源模型。WhileVertexGroup
,轻松实现迭代分析、RAG、Agent Feedback Loop。一句话:当你既想利用强大模型,又想保留流程可控性、工具生态和本地部署自由度时,Vertex 能提供"一站式气剑双修解决方案"。
Apache Spark | |||
Apache Flink | 但是提出的概念是Realtime is AI,还是嘴硬把自己放到C位 | ||
Ray | Ray Serve + Ray DAG 个人认为这个是一个注定失败的项目,现在已经停止商业化支持 |
这些引擎关注 高吞吐/低延迟 计算资源调度,核心挑战在于把 AI 推理服务化、批流统一,而不是提供"思考—工具调用—循环改进"的 Agent 语义。
整体观察:
数据仓库(Snowflake、BigQuery、LakeHouse 等)提供统一事实表与指标口径,解决数据孤岛;而编排系统负责把原始事件 → 清洗 → 特征 → AI 推理 → 结果回写整链路打通,确保业务闭环。
在实际落地中:
一句话:仓库固化数据资产,编排固化业务资产;两者共同构成 AI 应用的"数智底座"。
回到第一性原理:
简单即高效。流程的存在是为了降低复杂度并提升可控性,但随着模型推理能力不断增强,部分流程有望被"折叠"进模型内部——就像编译器把高级语法编译成底层指令那样。届时,外层编排将趋于极简,仅保留安全、权限、约束等人类必须掌控的节点,把余下的"细枝末节"交由模型自主处理。这也是气剑双修未来可能的收敛形态:流程在宏观上仍然存在,却在微观上被简化到看不见。
在这场 AI 争霸的江湖里,你会选择修炼内功,还是苦练剑法?或许,真正的高手从不设限。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-27
5000字长文:基于Dify的智能标底生成Agent深度实践
2025-08-27
NodeJS+LLM搭建一个属于自己的知识库
2025-08-27
详解AI Infra:AI世界的高速公路
2025-08-27
对不起Manus,我找到了更合适打工人的AI智能体天团
2025-08-27
AI Test:AI 测试平台落地实践
2025-08-27
你所不了解的:上下文工程 (Context Engineering)
2025-08-27
国务院重磅AI新政发布,未来10年最大机会在哪里?
2025-08-26
毕马威用 100 页 Prompt 喂出税务 AI,两周工作压缩到一天
2025-08-21
2025-06-01
2025-06-21
2025-08-21
2025-08-19
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-08-27
2025-08-26
2025-08-25
2025-08-25
2025-08-25
2025-08-23
2025-08-23
2025-08-22