微信扫码
添加专属顾问
我要投稿
在AI江湖中,气宗与剑宗之争从未停歇:是依赖强大模型还是精妙流程?本文带你探索两者融合之道。核心内容: 1. 气宗与剑宗在AI领域的核心差异与各自优劣势 2. 大模型时代下工作流设计的演进与挑战 3. 如何根据实际场景平衡模型能力与流程设计
Agent%E6%9E%84%E5%BB%BA%E6%9C%89%E4%BA%86%E4%B8%80%E5%AE%9A%E7%9A%84%E4%BA%86%E8%A7%A3%EF%BC%8C%E8%BF%99%E7%AF%87%E6%96%87%E7%AB%A0%E4%B8%BB%E8%A6%81%E6%A0%B9%E6%8D%AE%E4%B8%AA%E4%BA%BA%E7%BB%8F%E9%AA%8C%E8%AE%A8%E8%AE%BA%E4%B8%80%E4%BA%9Bllm%E5%92%8Cagent%E4%B8%8A%E7%9A%84%E6%80%9D%E8%80%83%EF%BC%9A%E5%9C%A8%20AI%20%E7%9A%84%E6%B1%9F%E6%B9%96%E9%87%8C%EF%BC%8C%E6%B0%94%E5%AE%97%E4%BB%A3%E8%A1%A8%5C%22%E6%A8%A1%E5%9E%8B%E8%87%B3%E4%B8%8A%5C%22%EF%BC%8C%E5%89%91%E5%AE%97%E5%88%99%E5%B4%87%E5%B0%9A%5C%22%E6%B5%81%E7%A8%8B%E4%B8%BA%E7%8E%8B%5C%22%EF%BC%9B%E9%9D%A2%E5%AF%B9%E9%A3%9E%E9%80%9F%E6%BC%94%E8%BF%9B%E7%9A%84%E5%A4%A7%E6%A8%A1%E5%9E%8B%E4%B8%8E%E7%99%BE%E8%8A%B1%E9%BD%90%E6%94%BE%E7%9A%84%E5%B7%A5%E5%85%B7%E9%93%BE%EF%BC%8C%E6%88%91%E4%BB%AC%E7%9C%9F%E7%9A%84%E5%8F%AA%E8%83%BD%E4%BA%8C%E9%80%89%E4%B8%80%E5%90%97%EF%BC%9F%22%7D%5D%7D%5D%2C%22attrs%22%3A%7B%7D%7D" source="https%3A%2F%2Fwww.yuque.com%2Frealtimeai%2Fcivcga%2Ftppr9ivoztk2gu3c" data-pm-slice="0 0 []"> 最近徒手做了一个workflow的框架:https://github.com/ashione/vertex,对agent构建有了一定的了解,这篇文章主要根据个人经验讨论一些llm和agent上的思考:在 AI 的江湖里,气宗代表"模型至上",剑宗则崇尚"流程为王";面对飞速演进的大模型与百花齐放的工具链,我们真的只能二选一吗?
气宗(Model-Centric):相信"大力出奇迹",投入资源打造或调用更强大的 LLM,让单一模型尽可能解决所有任务。
剑宗(Workflow-Centric):认为"巧劲胜蛮力",通过工作流、外部工具与多模型协作,把复杂任务拆成若干简单步骤,各施所长。
这两条路线都已在实践中取得成功,也都暴露了局限。真正的挑战是:时代在变,我们该怎样权衡?
回顾无 LLM 时代:在 2010~2020 年的深度学习黄金十年里,计算机视觉主要依赖 CNN 卷积网络(如 ResNet、EfficientNet)完成图像分类、目标检测、分割等任务;自然语言处理领域则以 RNN/LSTM、Seq2Seq、Transformer-Encoder 为主,分别用于情感分析、机器翻译、命名实体识别等。它们通常聚焦单一功能,需要通过流水线将多个专用模型串联(如 OCR + 关系抽取 + 规则引擎)才能完成复杂任务,这也催生了早期的Pipeline/Workflow 设计理念。LLM 的出现把多任务能力"折叠"到同一个参数空间中,大幅简化了模型数量,却把"提示工程"和"工具调用"推至前台——于是,新的编排问题再次浮现。
局限:
- 成本高(推理价格、显存消耗)
- 行为不稳定,可解释性差
- 与外界交互受限(文件系统、互联网、专用 API)
进一步思考:
当模型规模受限(如本地 7B/13B 参数小模型)或推理成本受限(边缘端部署、隐私环境)时,单纯依赖气宗会放大其推理、记忆和工具使用方面的短板。这时,通过精心设计的流程编排(剑宗思路)可以将"大任务"拆解为模型可承受的小步骤,并结合检索、脚本执行、规则引擎等外部能力弥补模型不足,实现"以弱胜强"。
局限:
- 设计复杂度高,初始开发时间长
- 需要维护工具链与运行时环境
- 对 Prompt 与模型能力仍有依赖
推理能力 | ||
可解释性 | ||
集成外部知识 | ||
维护成本 | ||
创新速度 |
OpenAI | |||
Google (DeepMind) | |||
Microsoft | |||
DeepSeek (DeepSeek AI) | • R1 模型内置 "Reasoning" 输出 |
||
Alibaba (Tongyi Qwen) | • 开源社区活跃 |
开源+企业插件 |
|
ByteDance (Doubao) | • 深度融入 Feishu、抖音等业务流程 |
||
Anthropic | |||
社区 (LangChain/LlamaIndex) |
可以看到:没有哪家只走单一路线。即使是最偏气宗的厂商,也在布局工具调用;而最重流程的框架,也依赖更强大的模型以减少链路复杂度。
当"气宗"卷模型、"剑宗"卷编排,公有云厂商必须同时扮演好算力底座与生态中枢两种角色,才能为上下游提供真正的气剑双修能力。
一句话:云厂商要做到"硬件可随调、模型可选型、流程可编排、数据可托管、合规可背书、生态可共享",才能在这场 AI 新武林中稳坐气剑双修的桥头堡。
当"剑宗"从单一工作流升级到多 Agent 协作时,信息传递成为新的技术瓶颈。就像武侠小说中"六脉神剑"需要内力相通,多个 Agent 之间的状态同步、消息路由、冲突解决也需要一套完整的"通信协议"。
消息队列 |
|||
事件驱动 |
|||
共享状态 | |||
API 网关 |
|||
专用协议 |
OpenAI Swarm:采用Handoff机制,Agent 间通过结构化消息传递上下文,但缺乏全局状态管理。
LangChain Multi-Agent:基于"Supervisor"模式,一个主 Agent 协调多个子 Agent,但容易成为瓶颈。
Anthropic Claude Team:通过"共享工作空间"概念,多个 Agent 在同一个对话上下文中协作,但扩展性有限。
多 Agent 协作的本质不是简单的 Prompt 优化,而是复杂的 Context 工程。每个 Agent 都有自己的"认知边界"和"记忆容量",如何让它们共享上下文、理解彼此、协调行动,是当前技术栈的空白地带。
LangChain Memory | ||
Vector Database | ||
Event Sourcing | ||
GraphQL | ||
WebSocket |
OpenAI Function Calling:通过结构化函数定义 Agent 能力边界,但缺乏 Context 传递机制。
Anthropic Claude Tool Use:支持工具调用,但 Context 管理仍依赖外部系统。
Vertex WhileVertexGroup:支持循环和条件,但 Context 工程需要开发者手动设计。
AutoGen:提供多 Agent 对话框架,但 Context 压缩和角色管理仍需优化。
一句话:多 Agent 协作的难点不在于让每个 Agent 更聪明,而在于让它们"心有灵犀"。Context 工程就是让多个 Agent 共享同一个"大脑",而不是简单的"多脑并行"。
在多 Agent 协作中,Context 与 Memory 的取舍是一门经验学问,没有放之四海而皆准的公式。就像武侠中的"内力"与"招式",Context 是当下的"气",Memory 是积累的"功",两者如何调配决定了 Agent 的"战斗力"。
时效性 | ||
容量 | ||
访问速度 | ||
更新频率 | ||
成本 |
模式一:分层架构
Context(实时):用户当前问题+最近3轮对话
Memory(短期):最近1小时内的关键信息
Archive(长期):历史数据、知识库
模式二:动态平衡
模式三:智能缓存
在多 Agent 协作中,Context 与 Memory 的管理模式直接影响系统的扩展性、一致性和性能。就像武林中的"分散修炼"与"集中传功",两种模式各有优劣。
集中式管理模式
架构 | ||
一致性 | ||
性能 | ||
扩展性 | ||
故障影响 | ||
适用场景 |
分布式管理模式
架构 | ||
一致性 | ||
性能 | ||
扩展性 | ||
故障影响 | ||
适用场景 |
混合管理模式
实际应用中的选择策略
行业实践对比
OpenAI Swarm | |||
LangChain | |||
Anthropic Claude Team | |||
Vertex Multi-Agent |
未来发展趋势
一句话:Context 和 Memory 的管理模式不是非此即彼的选择,而是需要根据规模、延迟、一致性要求动态调整的艺术。就像武林中的"内外兼修",既要内力深厚(集中式),也要招式灵活(分布式)。
编排的本质:无论时代采用 CNN、BERT 还是 GPT-4o,只要涉及 多步骤、多工具、多需求,就绕不开"把零散能力按业务目标串联"这一动作——这便是编排。它不是技术附属品,而是一种方法论:
从这个角度看,AGI 也可以被视作"人类应用逻辑"的延伸:当模型足够强大时,我们把更多流程下沉到模型内部;当模型仍有限时,我们在外层用编排去弥补。二者并非此消彼长,而是在不同抽象层次互补。
高性价比做法:核心逻辑用工作流,知识与创意环节交给强模型。
# 直接让大模型完成内容生成
vertex chat "用三句话介绍量子计算"
# 使用预设工作流 + 多工具完成市场调研
vertex deepresearch --topic "电动车市场"
Vertex 既内置多模型( DeepSeek
, Tongyi
, 本地 Ollama
) ,又提供可视化工作流编辑器,天然支持"气剑双修"。
工作流管理领域并不缺少"老牌选手"。在科研和数据工程圈子,Luigi、Snakemake、Nextflow、Yadage、CWL、Reana 等框架早已成名,并在 CERN 等机构广泛使用(详见 Schmitt et al., 2024)。在 AI 圈,又有 Airflow、Prefect、Dagster、LangChain Flowise 等新星。那么,Vertex 为什么还有存在的必要?
结论:这些框架关注批量文件处理、可复现科研,而非实时、多模态、Tool-Calling 的 LLM 工作流。
一些观察:
Dify | |||
扣子 (Coze) | |||
魔搭社区 (ModelScope) | |||
LLMVertex/FunctionVertex/WhileVertexGroup
等节点,天然兼容 OpenAI、DeepSeek、通义千问、Ollama 等多源模型。WhileVertexGroup
,轻松实现迭代分析、RAG、Agent Feedback Loop。一句话:当你既想利用强大模型,又想保留流程可控性、工具生态和本地部署自由度时,Vertex 能提供"一站式气剑双修解决方案"。
Apache Spark | |||
Apache Flink |
但是提出的概念是Realtime is AI,还是嘴硬把自己放到C位 |
||
Ray |
Ray Serve + Ray DAG 个人认为这个是一个注定失败的项目,现在已经停止商业化支持 |
这些引擎关注 高吞吐/低延迟 计算资源调度,核心挑战在于把 AI 推理服务化、批流统一,而不是提供"思考—工具调用—循环改进"的 Agent 语义。
整体观察:
数据仓库(Snowflake、BigQuery、LakeHouse 等)提供统一事实表与指标口径,解决数据孤岛;而编排系统负责把原始事件 → 清洗 → 特征 → AI 推理 → 结果回写整链路打通,确保业务闭环。
在实际落地中:
一句话:仓库固化数据资产,编排固化业务资产;两者共同构成 AI 应用的"数智底座"。
回到第一性原理:
简单即高效。流程的存在是为了降低复杂度并提升可控性,但随着模型推理能力不断增强,部分流程有望被"折叠"进模型内部——就像编译器把高级语法编译成底层指令那样。届时,外层编排将趋于极简,仅保留安全、权限、约束等人类必须掌控的节点,把余下的"细枝末节"交由模型自主处理。这也是气剑双修未来可能的收敛形态:流程在宏观上仍然存在,却在微观上被简化到看不见。
在这场 AI 争霸的江湖里,你会选择修炼内功,还是苦练剑法?或许,真正的高手从不设限。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-13
AI 智能体协议解构:MCP、A2A、AG-UI
2025-07-13
AI圈演义:我躺平两年多,终于看懂了这场“智能的游戏”
2025-07-13
结果交付:企业级LLM+MCP+RAG+Agent融合架构正在重构AI基建标准!
2025-07-13
RAG-Anything:多模态RAG的全能王者,AI文档处理的终极形态!
2025-07-13
深度|a16z内部复盘:AI社交产品或许从根本上就不成立,AI只是模拟“表达”,从未触碰“关系”本身
2025-07-13
飞书搞了个AI分级体系,一上线就把一堆产品打回原形了
2025-07-13
“内卷”到向量空间:Qwen3-Embedding 是真香还是跟风?
2025-07-13
AI安全审计模型哪家好?
2025-05-29
2025-05-23
2025-04-29
2025-04-29
2025-05-07
2025-05-07
2025-05-07
2025-06-01
2025-05-07
2025-04-17
2025-07-13
2025-07-13
2025-07-13
2025-07-13
2025-07-10
2025-07-10
2025-07-10
2025-07-09