微信扫码
添加专属顾问
我要投稿
Agent三大痛点解析:知识库构建、工作流编排与Prompt工程,一文掌握AI Agent设计核心难点。 核心内容: 1. 知识库建设三步骤:原料收集、智能切分与混合存储架构 2. 工作流设计的自动化骨架与逻辑编排关键 3. Prompt工程如何结合业务场景提升输出精度
正文:
一个好的AI Agent 的大概包括五大组件:
大语言模型 (LLM)是基础计算能力,日趋标准化;工具 (Tools)是能力扩展接口,通过MCP等协议日趋标准化;知识库 (RAG)决定知识深度与专业性,减少模型“幻觉”,是企业知识的载体;工作流 (Workflow)决定处理效率与逻辑,是复杂任务自动化的骨架;提示词 (Prompt)直接决定输出精度,需要深度结合业务场景进行设计。设计精准的提示词、编排可靠的工作流,以及构建和维护高质量的知识库,是设计AI Agent的三大痛点。
咱们先聊聊知识库怎么建。
1、知识收集
先说知识收集:你手头的PDF、Word、PPT都算"知识原料"。比如你有个眼镜行业的pdf报告,用minerU这种工具一扫,就能把里面内容"扒"出来,变成系统能用的文本。就像你把一堆杂乱的书本整理成电子版,方便以后用。
2、知识整理
知识整理是关键步骤:把内容切成小块,就像切蛋糕一样。可以按章节切,也可以按主题切,或者按固定字数切。切完后,给每块加点"小标签",更方便查找。比如"报告日期"、"关键词",这样以后找起来特别快。比如一份关于“专利纠纷”的报告,有如下小标签:
标题:海外知识产权纠纷应对策略时间:2025年9月关键词:专利、法律反制、风险预警
3、知识存储
存储方式有讲究:现在主流是存成"向量",就是把文字变成数字向量。这样系统能理解意思,不是死记硬背关键词。比如你问"眼镜行业趋势",系统能知道你问的是"趋势",而不仅仅是匹配"趋势"这个词。下面三种存储方式,对应三种知识检索方式:
1. 语义找(语义搜索):存储文本片段的向量表示,理解问题意思,找最相关的。
2. 关键词找(全文搜索):找关键词匹配的
3. 关联找(图搜索):存储实体及其关系,找相关联的知识
比如问"怎么处理客户投诉",语义找能定位到"客户投诉处理指南",关键词找能精准定位到"投诉处理流程"章节,关联找还能发现"客户服务最佳实践"。
我倾向于采用混合存储架构,即语义搜索+图搜索,对应就要使用向量数据库(Milvus)和图数据库(Neo4j)。分为下面三个步骤:
想象一下,你要整理一个超级详细的社交网络:Neo4j(图数据库)就像一张巨大的“关系网”,里面记录着每个人(节点)是谁、有什么特点(属性),以及他们之间是什么关系(边)。比如,小明是学生,喜欢编程,认识小红。
Milvus(向量数据库) 则像一个“特征档案库”,不为每个人保存文字描述,而是存储他们的“数字指纹”(向量)。比如,小明的特征可能是 [0.25, 0.8, -0.1, ...](计算机能看懂的数字串),代表他的兴趣、能力等。
这样做的好处:以后既能查关系(谁认识谁),也能通过“数字指纹”快速找相似的人(比如都喜欢编程的人)。
② 向量化处理流程:给新信息制作“数字指纹”
当有新资料(如一篇文章)进来时,系统会:
就像书越厚越需要目录,数据多了也要加“索引”来提速:
4、知识检索
举个例子你问“怎么治疗高血压”,首先要快速找到医学指南里的关键词(比如“降压药”),还要理解“高血压”和“心血管疾病”之间的关联(比如并发症),甚至推荐“低盐饮食”这种生活建议。
5、知识排序
排序策略主要包括:
5、知识更新
知识库就像一个有生命的“知识仓库”,需要持续“保鲜”和“打理”,才能保证里面的信息不过时、不出错。一个好的更新机制能让这个仓库自动或半自动地“补货”和“清货”,减少人工折腾。
① 自动检测变化,触发更新
系统会像“哨兵”一样盯着知识来源(比如文件、数据库),一旦发现变动(如上传了新文档、更新了日志),就自动启动处理流程。这就类似设置了自动提醒,文件一改,后续的解析、存储流程就跟着运转起来。
② 增量更新,只处理“新货”
为了省时省力,不需要每次都把整个知识库重做一遍。而是只处理新加的、或者有变动的部分,原来没动的就直接保留。这就像超市补货,只上新商品,货架上原有的商品不动。
③ 处理版本冲突和矛盾
知识来源多了,不同版本或不同来源的信息可能会有冲突。这时可以:
下面是三巨头之二:工作流。
工作流就是Agent的“行动路线图”,规定任务怎么一步步完成。举个例子,你问“明天北京天气”,工作流会自动:
1、先查知识库缓存(如果昨天刚更新过);2、没缓存?调天气API工具(比如用高德接口);3、用LLM把数据整理成人话(比如“晴,25℃,适合出门”)。
工作流为啥关键?没工作流,Agent可能乱成一锅粥(比如先调工具再查知识库,浪费时间)。有了它,复杂任务变流水线——你问啥,它就按顺序搞定,不用你操心。实际上,理想状态下的工作流非常复杂,包括了循环-反思-再行动:用户提问 → 模型判断需要先搜索资料 → 搜索后发现不够 → 再写一段代码解析 → 代码报错 → 模型决定修改代码并重试 → 最终生成答案。这个过程可能会循环很多次,直到任务成功完成。具体循环多少回合,确实无法事先预知。举个HR根据LinkedIn资料招聘的例子:
1. HR输入
2. 生成查询词
3. 爬取数据
4. 数据处理与总结
5. 生成个性化消息,再发送
由于精力有限,下一篇文章咱们再重点介绍一下Coze工作流的原理,在工作流上,Coze确实是比较成熟可靠的商业化产品了。
最后介绍一下Prompt工程。
Prompt工程就是设计AI的思维操作系统。就像你教一个新员工做事,不能只说"做这个",得告诉他"你是谁、为什么做、怎么做、做成什么样"。
1、系统提示词
① 角色设定
很多人写"你是资深产品经理",结果AI开始讲行业大道理。真正好用的提示词是"你是电商产品文案生成器"。为什么呢?如果是人类专家会思考"为什么",但是机器只会执行"怎么做"。
错的角色设定:"你是资深电商运营专家,擅长写产品文案"对的角色设定:"你是电商产品文案生成器,只负责根据参数输出100字产品描述,不添加额外解释"
② 上下文
AI是没有常识的,比如:
"你是智能客服,用户问:'为什么我的订单还没发货?'你提供给AI的上下文:用户订单号为20231001,已支付,物流显示'已揽收'"
这样AI才知道"订单已支付但物流状态是'已揽收',不是没发货",不会答"请等待发货"。
2、Examples:让AI"照着做",不是"猜着做"
写Examples如果只放随便几个例子,AI可能还是胡来。关键不是放例子,而是让AI"学会思考"。通过3个例子,它就记住"这样写是对的"。我在写例子的时候大概有下面几个经验:
① 质量优先:只放正确例子,别放"可能对可能错"的
② 乱序排列:别把对的放一起,错的放一起
③ 覆盖全面:不同场景都要有例子,比如:
正常查询:"手机没电了怎么办?" → "充电5分钟,通话2小时"异常情况:"手机进水了,还能用吗?" → "请立即关机,勿充电"
你的example :
"先查库存,再看物流,最后输出结果"
AI的回复
"1. 查库存 2. 看物流 3. 输出结果"
你的example:
"你是库存物流查询助手,只输出JSON格式。
示例:
输入:查iPhone 15库存和物流 → 输出:{"库存": "有货", "物流": "已发货"}
输入:小米14物流状态 → 输出:{"库存": "缺货", "物流": "未发货"}
请严格按JSON格式输出,不要任何其他文字
"
AI的回复:
{"库存": "有货", "物流": "已发货"}
3、Output Format:让AI老实交作业
光说"输出JSON",AI可能只是给你写段话。必须用"约束+示例+反复强调"。
因为AI的"思维惯性":它觉得"说人话"更自然。你让实习生写报告,他可能先写"我今天做了啥",而不是直接给结论。
你是JSON生成器,只输出JSON,不要任何其他文字。示例:输入:iPhone 15 价格5999 → 输出:{"name": "iPhone 15", "price": "5999"}输入:手机没电了怎么办 → 输出:{"solution": "充电5分钟,通话2小时"}错误示例:'iPhone 15价格5999元' → 正确示例:{"name": "iPhone 15", "price": "5999"}请严格按JSON格式输出
这样,AI几乎不会跑偏。我们Prompt工程往往做不好的原因,一方面我们以为AI是人觉得AI能"理解",其实它只是"匹配模式"。或者只给任务,不给框架,说"写产品介绍",不说"用什么风格、什么长度"。还存在例子太简单情况,只给1个例子,AI没学会"规则"。不重视Output Format,觉得"输出随便",也会出现工程系统没法处理的问题。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-16
GPT‑5-Codex 发布:OpenAI 的 Claude Code
2025-09-16
新版 GPT-5 刚刚发布,最卷 AI 连肝代码 7 小时,编程工具大洗牌开始了
2025-09-16
Subagents:构建高可靠 AI Coding 专家顾问团
2025-09-16
Anthropic发布首个AI经济指数报告:越富越用AI,企业比个人更信任AI
2025-09-16
Claude Code与GitHub结合使用的实践指南
2025-09-16
企业复杂Agent落地的12个工程化原则 | 原则二:构建Prompt工程可扩展、可维护、可调试、可回滚 | 提示词A/B实验
2025-09-16
OpenAI深夜放出「编程核弹」:GPT-5-Codex 正式发布,能独立爆肝7 小时
2025-09-16
马斯克的最快AI模型来了
2025-08-21
2025-06-21
2025-08-21
2025-08-19
2025-06-19
2025-07-29
2025-09-08
2025-08-19
2025-08-20
2025-07-04
2025-09-14
2025-09-12
2025-09-11
2025-09-11
2025-09-09
2025-09-09
2025-09-08
2025-09-08