微信扫码
添加专属顾问
我要投稿
告别冗长Prompt,用Skills模块化你的AI工作流,让知识管理更高效。核心内容: 1. 长Prompt模式在复杂任务中的成本与效率瓶颈 2. Skills的原理:将稳定规则与动态请求分离 3. 如何识别并实践Prompt与Skills的合理分工
很多团队在把大模型接进工作流时,最开始都会走同一条路:
把规则、流程、注意事项、格式要求,统一塞进 System Prompt。
刚开始,这种做法往往很有效。
任务简单的时候,模型像一个认真听话的实习生。你告诉它“按这个格式回答”、“别忘了检查安全问题”、“提交前先跑测试”,它大概率也能照做。
但只要任务复杂度上来,问题就会出现:
很多人以为这是 Prompt 写得还不够好。
其实未必如此。问题在于:把本该“模块化管理”的东西,硬塞进了每次都要重复携带的上下文里。
问题已经不只是“提示词优化”,而是“知识组织方式”出了问题。
而 Skills,正是在解决这个问题。
假设你想让 AI 帮你做代码审查。最朴素的做法,是把规则全塞进 Prompt:
你是资深后端工程师。请按以下标准审查代码:
1. 检查 SQL 注入风险
2. 检查空指针问题
3. 检查并发安全
4. 输出时按严重程度分类
5. 对涉及支付逻辑的代码单独标注
6. 所有建议都要包含修改方向
...
如果团队里还叠加了数据库规范、接口规范、上线流程、异常处理约束,Prompt 很快就会膨胀成几千 Token 的混合体。
问题就在这里:代码审查只是当前任务,但你却把一整套长期稳定的规范,都绑进了这次对话。
真正该单独管理的,不是“这次要 review 什么代码”,而是“团队平时怎么 review 代码”。
Skills 处理的正是后一件事。它不是把 Prompt 再写长一点,而是把那套长期有效的规则,从对话里拆出来,单独做成一份可调用的说明。
放到这个例子里,就是:
code-reviewer 的 Skill 入口code-reviewer 的完整说明Prompt 管当前这次请求,Skill 管那本专业手册。
这两个东西可以配合,但不该混成一团。
本文后面都在回答:哪些东西该写进 Prompt,哪些东西更适合拆成 Skill。
把所有规则塞进 Prompt,刚开始确实省事。但这套做法很难随着任务复杂度一起扩展。
假设一个团队有这些常驻规则:
加起来就是 6500+ 的 Token 了,而且这不是一次性成本,而是 每轮对话都会重复支付。
用户只是问一句“这个 SQL 为什么报错”,模型也要先吞下一整套上线流程和安全清单。这显然并不经济。
长上下文还有一个经典问题:Lost in the Middle。
简单说就是,当上下文很长时,模型对中间部分的关注会明显下降。你最精心写的第 7 条规范,很可能恰好在“中间地带”,于是被悄悄忽略。
最后就会出现:
还有一个容易被低估的问题:Prompt 非常容易“跟着项目散落”。
今天你在 A 项目里调出一套很好的代码审查 Prompt,明天换到 B 项目,又得重新复制、删减、改词。
长此以往,团队里会出现很多相似但不完全一致的 Prompt 版本。谁也说不清到底哪个才是“标准版”。
Prompt 当然重要,但它更适合承载当前这次请求的意图,不适合长期背着一整套稳定流程往前跑。
问题自然就冒出来了:如果这些长期稳定的规则不该一直塞在 Prompt 里,那它们该放在哪里?
先说一个直观的定义:
一份按需调取的专业操作手册。
平时它不占多少上下文,相关任务出现时,模型再把它拿出来看。
更正式一点说,Skill 是用自然语言写成的领域指令包,通常存放在 SKILL.md 中,模型会在相关任务出现时按需加载它。
但这里有一个很重要的边界要先说清:Skill 并不是脱离 Prompt 独立存在的“新能力”。从原理上看,它仍然属于上下文工程的一部分,只是被产品或框架做成了可发现、可复用、按需加载的模块化资产。
也就是说,Skill 不是在替代 Prompt,而是在把原本容易散落在聊天框里的那部分长期规则,重新组织成更适合工程化管理的形态。
但只知道这个定义还不够。到了真正落地的时候,大家最容易混淆的往往不是“Skill 是什么”,而是“它和 Prompt、MCP、Function Calling 分别在管什么”。
Skill 不是模型微调,不是新工具,也不是某个神秘的插件机制。
它是一组面向模型的工作说明:
模型启动时,并不会把每个 Skill 的完整正文都塞进上下文里。通常只会先知道:
等任务真的命中后,才去读取完整内容。
这很像一本手册的目录页。你不需要先把整本书背下来,只需要知道哪一章在讲什么,用到时再翻过去。
Skill 特别适合承载这几类知识:
比如:
本质上,Skill 就是在把团队里的隐性经验,写成 AI 也能照着执行的说明书。
这几个词经常一起出现,也最容易被混为一谈。拆开来看就清楚了:
换个更生活化的说法:
它们不是替代关系,而是分工关系。
用户说“帮我 review 这段代码”,这句话本身就是 Prompt。
但 Prompt 更适合承载:
它不太适合承载:
Function Calling 解决的是工具调用问题。
它关心的是:
比如读取文件、执行 Shell、查询数据库,本质上都属于这一层。
MCP 解决的是连通性问题。
它有点像 AI 世界里的 USB-C。
有了它,数据库、文档系统、监控平台、设计工具都可以用统一协议接给模型。
但 MCP 并不负责告诉模型:
它补上的不是“连接能力”,而是“执行逻辑”。 简单说,MCP 负责把工具接进来,Skills 负责把这些工具组织成可执行的流程。这也是为什么很多团队会同时需要 MCP 和 Skills,而不是二选一。
把位置摆清楚之后,再回头看底层机制,很多看上去反直觉的地方就容易理解了。比如:为什么 Skill 不是“多一个工具”,为什么它能节省上下文,为什么它适合承载团队规则。
很多人第一次接触 Skills,会下意识觉得:“我建了 10 个 Skill,模型就多了 10 个工具。” 实际上,主流实现通常不是这么工作的。
不同产品实现细节不完全一样,但主流思路很接近。下面这条链路更适合把它理解成一种常见实现模式,而不是所有产品都完全一致的固定规范。
Agent 启动时,通常会去扫描约定目录,比如:
.claude/skills/.agents/skills/.github/skills/这些目录只是不同产品或社区实现里常见的例子,并不是一套已经完全统一的标准。它通常会先读 SKILL.md 里的元数据,比如 name 和 description。
模型不一定会直接看到每个 Skill 的完整正文。
更常见的是,它先拿到一份轻量级目录:
code-reviewer:用于代码审查slow-query-analyzer:用于分析慢查询deploy-checklist:用于上线前检查也就是说,模型先知道“有什么”,再决定“要不要用”。
比如用户说:
帮我 review 一下这段代码。
模型会发现这句话和 code-reviewer 的描述高度相关,于是主动请求这个 Skill。
直到这一步,框架才会真正去读 code-reviewer/SKILL.md 的正文。
换句话说,真正占上下文的大块内容,是在触发之后才被带进来的。
到了这一步,模型才真正拿到那本“专业手册”,然后按 Skill 里的要求去做:
所以 Skills 最关键的收益,不是“多一个入口”,而是这件事:
把原本需要常驻的大段知识,改成触发后再进入上下文。
这也是它为什么比“无限堆 Prompt”更适合工程化。
理解原理是一回事,但落地时更实际的问题是:知道它怎么工作之后,SKILL.md 到底该怎么写,才不至于落成一份模型难以顺畅执行的 README。
很多人第一次写 Skill 时,很容易把它写成 README:
这对人类读者或许友好,但对模型来说并不高效。SKILL.md 最重要的任务不是“介绍你是谁”,而是:
告诉模型:什么时候该用我,用我时应该怎么做。
决定效果的,主要就是下面这几件事。
description 决定触发效果模型能不能正确触发一个 Skill,很大程度上看 description 写得好不好。
坏的写法:
description:分析系统日志。
这个描述过于宽泛。
好的写法:
description:诊断SpringBoot生产环境的运行时异常,包括解析Java堆栈、
定位OOM、分析接口超时和FullGC问题。当用户粘贴错误日志,或提到
“系统报错”“接口超时”“频繁FullGC”时触发。
好的描述至少回答了三件事:
最后这一点尤其重要。很多 Skill 的问题不在于“不够强”,而在于“边界没有写清”,结果是什么都想接,触发率看起来提高了,实际输出却变得不稳定。
正文最该写的,不是模型已经知道的“常识”,而是这个场景下它必须遵守的约束。
比如:
模型一般已经知道什么叫代码审查,但它不知道:
这些东西,才是 Skill 里最值钱的部分。
如果想再往前走一步,正文里最好补上一小段:什么情况下不要使用这个 Skill。
比如:
这一段不必很长,但往往比多写一页背景介绍更能提升稳定性。
凡是既容易出错、又需要确定性的操作,最好交给脚本。
比如:
在 Skill 里,可以这样写:
如果需要校验配置格式,执行
scripts/validate_config.py,并基于结果继续分析。
模型负责理解场景和组织流程,脚本负责做那些不该模糊处理的事。
这些原则单独看都不复杂,但如果只停留在原则层面,仍然会显得不够具体。更好的办法,还是直接看一个最小例子,把它落到一份真实的 SKILL.md 上。
如果前面的讨论仍然有些抽象,直接看一个最小例子会更直观。
假设你想给团队做一个“代码审查 Skill”,最小版本可以长这样:
---
name: code-reviewer
description: 对后端代码进行结构化 Code Review,重点检查安全风险、
逻辑错误和可维护性问题。当用户要求 review 代码、检查代码质量、
分析潜在 bug 时触发。
---
## 审查顺序
1. 先检查安全问题
2. 再检查逻辑正确性
3. 最后检查可维护性和可读性
## 必查项
### P0:安全问题
- SQL 拼接
- 密钥硬编码
- 未鉴权接口
### P1:逻辑问题
- 空指针风险
- 并发安全问题
- 边界条件缺失
### P2:质量问题
- 函数过长
- 重复逻辑
- 命名含混
## 输出格式
每个问题按以下格式输出:
- 严重级别
- 问题描述
- 原因
- 修改建议
这个版本并不复杂,但已经具备基本的实用性:
第一,用户不需要每次都重复说“按什么标准 review”。
第二,团队里的 AI 输出会比“纯自由发挥”稳定得多。
往下再做,可以补这些东西:
references/:放详细规范scripts/:放确定性脚本讲到这里,就可以进一步追问:既然 Skill 可以这样写,那什么样的事情值得专门做成 Skill,什么样的事情其实没有必要?
但也不是所有事情都值得单独做成 Skill。
比如:
归根到底:
重复、稳定、可复用的流程,最适合做成 Skill。
一旦 Skill 从个人提效工具变成团队通用资产,问题就不只是触发率了,至少还要看这三件事。
真实工作流通常不是一个 Skill 就能搞定的。
比如一个需求开发流程,可能会涉及:
这时通常要在两种做法之间作出选择:
前者更灵活,后者更可控。
Skills 解决的是“不要一开始把所有东西都塞进去”,但不代表上下文无限大。
如果一次对话连续触发很多长 Skill,它们的正文仍然会不断累积在消息历史里。
所以依然要注意:
references/Skill 本质上是在影响 AI 的行为。
下面这些事,必须格外谨慎:
越是要在团队里共享,越要把这些边界提前写清楚。
到 2026 年初,Agent Skills 已经不只是某个单一产品里的小技巧,而是在朝着更开放、更可迁移的方向演进。
公开支持或兼容的产品,已经包括:
这背后最值得注意的变化是:Skill 正在从“某个工具里的配置技巧”,变成“可迁移的工作流资产”。
不过这里也需要说得更严谨一点:现阶段更准确的表述是,大家在理念上越来越趋同,但目录约定、元数据字段、触发方式、工具集成方式仍然存在差异。因此,它正在走向开放生态,但还不能简单理解成“所有产品已经完全兼容同一套 Skill 标准”。
这和普通 Prompt 最大的不同就在这里。
Prompt 常常散落在聊天框里、配置里、个人笔记里。
而 Skill 更像一个真正可以被管理、共享、版本化的模块。
从团队视角看,这件事比省多少 Token 更重要。
因为它意味着:
如果你认同这套思路,接下来更实际的问题就是:第一步该从哪里下手?
如果你现在准备动手,不必一上来就做“全能 Skill”。更好的起点往往很朴素:
选一件你上个月已经重复说过 3 次以上的事。
比如:
然后先做一个最小版本:
SKILL.mdnamedescription先别追求大而全。一个能稳定触发、稳定输出的窄 Skill,通常比一个边界模糊的万能 Skill 更有价值。
写完以后,也不必急着宣布“这个 Skill 已经可用了”。更稳妥的做法是,用 5 到 10 个真实任务做一次回放,重点看三件事:
如果一个 Skill 总是误触发,通常说明 description 写得过泛;如果总是触发不出来,通常说明用户说法覆盖得还不够全;如果已经触发但执行不稳,往往是正文里的顺序、边界或脚本调用条件还不够明确。
前面一路讲下来,其实都在回答同一个问题:为什么有些规则不该继续硬塞在 Prompt 里。
如果一定要用一句话概括 Skills 的意义,我会这样说:
它不是 Prompt 的补丁,而是把团队知识从“临时喂给模型”,变成“按需调用的模块”。
过去很多人优化 AI 的方式,往往都是继续往 Prompt 里加东西:补规则、补格式、补边界、补例外。
但当你真的把 AI 接进日常工作流,迟早都会碰到同一个问题:规则越来越多,Prompt 越来越长,维护越来越累,输出却不一定越来越稳。
到这一步,真正该升级的已经不只是 Prompt 技巧,而是规则本身的组织方式。
看起来只是上下文管理方式变了,背后带来的却是另一套工程结果:
如果你已经开始觉得 Prompt 越写越长、越写越累,那多半不是你不会写 Prompt,而是你已经走到了该把一部分知识从 Prompt 里拆出来的阶段。
Skill 的意义当然不只是省一点 Token。它更重要的价值在于:让团队知识第一次有机会像代码一样,被模块化、被版本化、被共享、被迭代。
当第一个 Skill 真正稳定运行起来,你会明显感觉到:自己优化的已经不再只是某一句提示词,而是在搭建一套能够持续沉淀、持续复用的 AI 工作方法。
[1] Anthropic — Introducing Agent Skills:https://www.anthropic.com/news/skills
[2] Anthropic Docs — Extend Claude with skills:https://docs.anthropic.com/en/docs/claude-code/skills
[3] Anthropic Docs — Agent Skills in the SDK:https://console.anthropic.com/docs/en/agent-sdk/skills
[4] OpenAI Docs — Agent Skills for Codex:https://developers.openai.com/codex/skills
[5] GitHub Docs — Creating agent skills for GitHub Copilot:https://docs.github.com/copilot/how-tos/use-copilot-agents/coding-agent/create-skills
[6] Cursor Docs — Agent Skills:https://cursor.com/docs/context/skills
[7] Agent Skills Open Standard:https://agentskills.io/
[8] Liu et al., 2023 — Lost in the Middle: How Language Models Use Long Contexts:https://arxiv.org/abs/2307.03172
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-05-10
所谓Skill,不过是包装好的Prompt
2026-05-10
TS 大神 Matt Pocock 开源自己的 AI Skills,主打反 Vibe Coding
2026-05-09
Perplexity 是怎么设计、打磨和维护 Agent Skills 的
2026-05-09
Nacos Skill Registry:面向个人场景的 Skill 中心实践
2026-05-09
怎么创建一个真正能干活的 Skills?
2026-05-09
aweskill:让AI Agents 自己搞定skills 管理
2026-05-08
我用半年筛出来的 9 个 Skill,知识工作者必备
2026-05-08
Skill 是怎么悄悄变成 SOP 的?
2026-04-05
2026-03-03
2026-03-04
2026-03-17
2026-03-05
2026-03-03
2026-03-10
2026-03-17
2026-03-26
2026-03-05