微信扫码
添加专属顾问
我要投稿
Claude团队揭秘提示工程核心技巧,助你轻松驾驭大语言模型,一次提示即获理想输出。 核心内容: 1. 提示工程的核心价值与基本原则 2. 三大实战技巧:明确清晰、提供上下文、具体明确 3. 从基础到高级的完整应用场景示例
上下文工程已经成为与大语言模型(LLM)工作时越来越重要的一部分,而提示工程正是其核心基础。
提示工程是构建指令以从 AI 模型获得更好输出的技艺。它关乎你如何措辞查询、指定风格、提供上下文,以及引导模型的行为来实现你的目标。
一个模糊的指令和一个精心设计的提示之间的差异,可能意味着泛泛的输出和你真正需要的结果之间的鸿沟。一个结构不良的提示可能需要多次来回交流才能明确意图,而一个精心设计的提示能让你一次就达到目的。
为了帮助你入门,我们汇集了团队的一些最佳实践,包括旨在立即改善结果的实用方法。我们将从今天就能使用的简单习惯开始,然后扩展到复杂项目的高级方法。
在最基本的层面上,提示工程只是修改你传递给 LLM 的查询。通常它只是在你提出实际请求之前向查询添加信息——但知道哪些信息是正确的信息才是设计优秀有效提示的秘诀。
这些提示工程技巧构成了有效 AI 交互的基础。持续使用它们,你会立即看到响应质量的提升。
现代 AI 模型对清晰、明确的指令反应极好。不要假设模型会推断你想要什么——直接说明。使用简单的语言准确表达你想要的内容,避免歧义。
关键原则:告诉模型你想看到什么。如果你想要全面的输出,就提出要求。如果你想要特定功能,就列出它们。像 Claude 这样的现代模型特别受益于明确的指导。
示例:创建分析仪表板
模糊版本:"创建一个分析仪表板"
明确版本:"创建一个分析仪表板。包含尽可能多的相关功能和交互。超越基础,创建一个功能齐全的实现。"
第二个版本明确要求全面的功能,并表明你希望模型超越最低要求。
最佳实践:
以直接的动作动词开头:"写"、"分析"、"生成"、"创建"
跳过开场白,直奔主题
说明你希望输出包含什么,而不仅仅是处理什么
明确质量和深度期望
解释为什么某事重要,有助于 AI 模型更好地理解你的目标并提供更有针对性的响应。这对能够推理你的潜在目标的新型模型特别有效。
示例:格式偏好
效果较差:"永远不要使用项目符号"
更有效:"我更喜欢自然段落形式的回复,而不是项目符号,因为我觉得流畅的散文更容易阅读,更具对话性。项目符号对我的非正式学习风格来说感觉太正式、太像列表了。"
第二个版本帮助模型理解规则背后的推理,使其能够在相关格式选择上做出更好的决策。
何时提供上下文:
解释输出的目的或受众
阐明某些约束存在的原因
描述输出将如何使用
说明你试图解决的问题
提示工程中的具体性意味着用明确的指南和要求来构建你的指令。你对想要的内容越具体,结果就越好。
示例:餐食计划
模糊版本:"为地中海饮食创建一个餐食计划"
具体版本:"为糖尿病前期管理设计一个地中海饮食餐食计划。每日 1,800 卡路里,强调低血糖指数食物。列出早餐、午餐、晚餐和一份零食,并提供完整的营养分解。"
什么使提示足够具体?
包括:
明确的约束(字数、格式、时间线)
相关上下文(受众是谁,目标是什么)
期望的输出结构(表格、列表、段落)
任何要求或限制(饮食需求、预算限制、技术约束)
示例并非总是必需的,但在解释概念或演示特定格式时非常有效。也被称为单样本或少样本提示,示例通过展示而非讲述来阐明难以通过描述表达的细微要求。
现代模型的重要提示:Claude 4.x 和类似的先进模型非常关注示例中的细节。确保你的示例与你想鼓励的行为一致,并最小化你想避免的任何模式。
示例:文章摘要
无示例版本:"总结这篇文章"
有示例版本:
这是我想要的摘要风格的一个示例: 文章:[关于 AI 监管的文章链接]摘要:欧盟通过针对高风险系统的综合 AI 法案。关键条款包括透明度要求和人工监督授权。2026 年生效。 现在用相同的风格总结这篇文章:[你的新文章链接]
何时使用示例:
期望的格式更容易展示而非描述
你需要特定的语气或风格
任务涉及细微的模式或惯例
简单的指令未能产生一致的结果
专业提示:从一个示例开始(单样本)。只有当输出仍然不符合你的需求时,才添加更多示例(少样本)。
给 AI 明确的许可来表达不确定性,而不是猜测。这减少了幻觉并提高了可靠性。
示例:"分析这些财务数据并识别趋势。如果数据不足以得出结论,请明说,而不是推测。"
这个简单的补充通过允许模型承认局限性,使响应更值得信赖。
这些核心习惯会让你走得很远,但你可能仍会遇到需要更复杂方法的情况。当你构建代理解决方案、处理复杂数据结构或需要分解多阶段问题时,高级提示工程技巧会大放异彩。
预填充让你为 AI 开始响应,引导格式、语气或结构。这种技巧对于强制输出格式或跳过开场白特别有效。
何时使用预填充:
你需要 AI 输出 JSON、XML 或其他结构化格式
你想跳过对话性开场白,直接获取内容
你需要保持特定的声音或角色
你想控制 AI 如何开始响应
示例:强制 JSON 输出
无预填充时,Claude 可能会说:"这是你请求的 JSON:{...}"
使用预填充(API 使用):
messages=[ {"role": "user", "content": "从这个产品描述中提取名称和价格到 JSON 中。"}, {"role": "assistant", "content": "{"} ]
AI 将从开括号继续,仅输出有效的 JSON。
注意:在聊天界面中,你可以通过非常明确的方式来近似这一点:"仅输出有效的 JSON,无开场白。以开括号开始你的响应。"
思维链(CoT)提示涉及在回答之前请求逐步推理。这种技巧有助于从结构化思考中受益的复杂分析任务。
现代方法:Claude 提供了一个自动化结构化推理的扩展思考功能。当可用时,扩展思考通常优于手动思维链提示。然而,理解手动 CoT 对于扩展思考不可用的情况,或当你需要可以审查的透明推理时仍然很有价值。
何时使用思维链:
扩展思考不可用(即免费的 Claude.ai 计划)
你需要可以审查的透明推理
任务需要多个分析步骤
你想确保 AI 考虑特定因素
思维链有三种常见实现:
简单地在你的指令中添加"逐步思考"。
为捐赠者起草个性化邮件,请求为今年的关爱儿童计划做出贡献。 项目信息:<program>{{PROGRAM_DETAILS}}</program>捐赠者信息:<donor>{{DONOR_DETAILS}}</donor>在写邮件之前逐步思考。
构建你的提示以提供特定的推理阶段。
在写邮件之前思考。首先,考虑根据该捐赠者的捐赠历史,什么信息可能吸引他们。然后,考虑关爱儿童计划的哪些方面会与他们产生共鸣。最后,使用你的分析撰写个性化的捐赠者邮件。
使用标签将推理与最终答案分开。
在 <thinking> 标签中写邮件之前思考。首先,分析什么信息会吸引该捐赠者。然后,识别相关的项目方面。最后,在 <email> 标签中撰写个性化的捐赠者邮件,使用你的分析。
注意:即使扩展思考可用,显式 CoT 提示对于复杂任务仍然有益。这两种方法是互补的,而非互斥的。
对于现代 AI 模型,有几种有效的方法来控制响应格式:
不要:"不要在你的响应中使用 markdown" 尝试:"你的响应应该由流畅的散文段落组成"
你提示中使用的格式风格可能会影响 AI 的响应风格。如果你想要最少的 markdown,减少提示中的 markdown。
对于详细的格式控制:
在撰写报告或分析时,使用清晰、流畅的散文和完整的段落。使用标准段落分隔进行组织。将 markdown 主要保留用于内联代码、代码块和简单标题。 不要使用有序列表或无序列表,除非你呈现的确实是离散项目,其中列表格式是最佳选项,或用户明确要求列表。 不要用项目符号列出项目,而是将它们自然地融入句子中。你的目标是可读的、流畅的文本,自然地引导读者理解想法。
与之前的技巧不同,提示链不能在单个提示中实现。链式将复杂任务分解为具有单独提示的更小的顺序步骤。每个提示处理一个阶段,输出馈送到下一个指令。
这种方法通过使每个单独任务更容易,以延迟换取更高的准确性。通常这种技巧会使用工作流或程序化方式实现,但你也可以在收到响应后手动提供提示。
示例:研究摘要
第一个提示:"总结这篇医学论文,涵盖方法论、发现和临床影响。"
第二个提示:"审查上述摘要的准确性、清晰度和完整性。提供分级反馈。"
第三个提示:"根据此反馈改进摘要:[步骤 2 的反馈]"
每个阶段通过聚焦的指令增加完善。
何时使用提示链:
你有一个需要分解为步骤的复杂请求
你需要迭代完善
你正在进行多阶段分析
中间验证增加价值
单个提示产生不一致的结果
权衡:链式增加延迟(多个 API 调用),但对于复杂任务通常会显著提高准确性和可靠性。
一些在早期 AI 模型中流行的提示工程技巧对于像 Claude 这样的模型来说不太必要了。然而,你可能仍会在旧文档中遇到它们,或在特定情况下发现它们有用。
XML 标签曾经是向提示添加结构和清晰度的推荐方法,尤其是在合并大量数据时。虽然现代模型在没有 XML 标签的情况下更好地理解结构,但它们在特定情况下仍然有用。
示例:
<athlete_information>- 身高:6'2"- 体重:180 磅- 目标:增肌- 饮食限制:素食者</athlete_information> 根据上述运动员信息生成餐食计划。
XML 标签可能仍然有帮助的情况:
你正在处理混合多种类型内容的极其复杂的提示
你需要绝对确定内容边界
你正在使用旧版本的模型
现代替代方案:对于大多数用例,清晰的标题、空白和明确的语言("使用下面的运动员信息...")同样有效,开销更少。
角色提示定义了你如何措辞查询中的专家角色和观点。虽然这可能有效,但现代模型足够复杂,重量级的角色提示通常是不必要的。
示例:"你是一位财务顾问。分析这个投资组合..."
重要警告:不要过度约束角色。"你是一个乐于助人的助手"通常比"你是一位世界知名的专家,只用技术术语说话,从不犯错误"更好。过于具体的角色可能会限制 AI 的有用性。
角色提示可能有帮助的情况:
你需要在许多输出中保持一致的语气
你正在构建需要特定角色的应用程序
你想要复杂主题的领域专业知识框架
现代替代方案:通常,明确说明你想要的观点更有效:"分析这个投资组合,关注风险承受能力和长期增长潜力",而不是分配角色。
你现在已经看到了单独的技巧,但它们的真正力量在于你战略性地组合它们时才会显现。提示工程的艺术不是使用每一个可用的技巧——而是为你的特定需求选择正确的组合。
[图片占位符:展示技巧组合的示意图]
示例:结构化数据提取
明确性(指定 JSON 格式)
示例(展示期望的结构)
表达不确定性的许可(如果不确定则使用 null)
格式控制(以开括号开始)
并非每个提示都需要每种技巧。这里是一个决策框架:
从这里开始:
你的请求清晰明确吗?如果否,首先解决清晰度问题
任务简单吗?仅使用核心技巧(具体、清晰、提供上下文)
任务需要特定格式吗?使用示例或预填充
任务复杂吗?考虑分解它(链式)
需要推理吗?使用扩展思考(如果可用)或思维链
技巧选择指南:
即使是善意的提示也可能产生意外的结果。以下是常见问题及其解决方法:
问题:响应太泛泛 → 解决方案:添加具体性、示例或明确要求全面输出。要求 AI"超越基础"。
问题:响应偏离主题或错过重点 → 解决方案:对你的实际目标更明确。提供关于你为什么问的上下文。
问题:响应格式不一致 → 解决方案:添加示例(少样本)或使用预填充来控制响应的开始。
问题:任务太复杂,结果不可靠 → 解决方案:分解为多个提示(链式)。每个提示应该做好一件事。
问题:AI 包含不必要的开场白 → 解决方案:使用预填充或明确要求:"跳过开场白,直接给出答案。"
问题:AI 编造信息 → 解决方案:明确给予许可,在不确定时说"我不知道"。
问题:AI 建议更改而你想要实施 → 解决方案:对行动明确:"更改此函数"而不是"你能建议更改吗?"
专业提示:从简单开始,只在需要时添加复杂性。测试每个添加,看它是否真的改善了结果。
从这些常见陷阱中学习,以节省时间并改进你的提示:
不要过度工程:更长、更复杂的提示并非总是更好。
不要忽视基础:如果你的核心提示不清晰或模糊,高级技巧不会有帮助。
不要假设 AI 能读心术:对你想要什么要具体。留下歧义会给 AI 误解的空间。
不要一次使用每种技巧:选择解决你特定挑战的技巧。
不要忘记迭代:第一个提示很少完美。测试和完善。
不要依赖过时的技巧:XML 标签和重量级角色提示对现代模型来说不太必要。从明确、清晰的指令开始。
实施高级提示工程的挑战之一是它通过额外的令牌使用增加了上下文开销。示例、多个提示、详细指令——它们都消耗令牌,上下文管理本身就是一项技能。
记住在合理和必要时使用提示工程技巧。有关有效管理上下文的全面指南,请查看我们关于上下文工程的博客文章。
上下文感知改进:包括 Claude 4.x 在内的现代 AI 模型显著改进了上下文感知能力,有助于解决历史上的"迷失在中间"问题,即模型难以平等关注长上下文的所有部分。
为什么任务拆分仍然有帮助:即使有这些改进,将大任务分解为更小的离散块仍然是一种有价值的技巧——不是因为上下文限制,而是因为它帮助模型在非常具体的要求和范围内做最好的工作。具有清晰边界的聚焦任务始终产生比试图在单个提示中完成多个目标更高质量的结果。
策略:在处理长上下文时,清晰地构建你的信息,将最关键的细节放在开头或结尾。在处理复杂任务时,考虑将它们分解为聚焦的子任务是否会提高每个组件的质量和可靠性。
提示工程是一项技能,在你掌握它之前需要几次尝试。知道你是否做对的唯一方法是测试它并查看结果。第一步是自己尝试。你会立即看到有无提示技巧的查询之间的差异。
要真正磨练你的提示工程技能,你需要客观地衡量提示的有效性。好消息是,这正是我们在 anthropic.skilljar.com 的提示工程课程中涵盖的内容。
快速评估技巧:
输出是否符合你的具体要求?
你是一次尝试就得到结果,还是需要多次迭代?
格式在多次尝试中是否一致?
你是否避免了上面列出的常见错误?
提示工程最终是关于沟通:说 AI 最清楚理解你意图的语言。从本指南前面涵盖的核心技巧开始。持续使用它们,直到它们成为第二天性。只有在它们解决特定问题时才添加高级技巧。
记住:最好的提示不是最长或最复杂的。它是以最少必要的结构可靠地实现你的目标的提示。随着实践,你会对哪些技巧适合哪些情况产生直觉。
向上下文工程的转变并没有削弱提示工程的重要性。事实上,提示工程是上下文工程中的基本构建块。每个精心设计的提示都成为塑造 AI 行为的更大上下文的一部分,与对话历史、附加文件和系统指令一起创造更好的结果。
以下是一些可以立即使用的提示模板:
嗨 Claude!你能帮我为受众开发独特的声音吗?如果你需要我提供更多信息,立即向我提出 1-2 个关键问题。如果你认为我应该上传任何有助于你更好完成工作的文档,请告诉我。你可以使用你有权访问的工具——比如 Google Drive、网络搜索等——如果它们能帮助你更好地完成这项任务。请不要使用分析工具。请保持你的回复友好、简洁和对话式。
请尽快执行任务——如果有意义的话,创建一个工件会很好。如果使用工件,考虑什么类型的工件(交互式、视觉、清单等)对这个特定任务最有帮助。感谢你的帮助!
嗨 Claude!你能改进我的写作风格吗?[同上格式]
嗨 Claude!你能进行创意头脑风暴吗?[同上格式]
嗨 Claude!你能简单解释复杂主题吗?[同上格式]
嗨 Claude!你能帮我理解这些想法吗?[同上格式]
嗨 Claude!你能帮我准备考试或面试吗?[同上格式]
嗨 Claude!你能解释一个编程概念吗?[同上格式]
嗨 Claude!你能审查我的代码并给我建议吗?[同上格式]
嗨 Claude!你能与我一起编程吗?[同上格式]
[此处为测试内容]
嗨 Claude!你能撰写拨款提案吗?如果你需要我提供更多信息,立即向我提出 1-2 个关键问题。如果你认为我应该上传任何有助于你更好完成工作的文档,请告诉我。你可以使用你有权访问的工具——比如 Google Drive、网络搜索等——如果它们能帮助你更好地完成这项任务。请不要使用分析工具。请保持你的回复友好、简洁和对话式。
请尽快执行任务——如果有意义的话,创建一个工件会很好。如果使用工件,考虑什么类型的工件(交互式、视觉、清单等)对这个特定任务最有帮助。感谢你的帮助!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-18
为什么数据格式那么多,大模型却独爱 Markdown?背后的原理其实很简单
2025-11-16
搞定Nano Banana,用这份提示词框架
2025-11-16
Prompt Engineering 最佳实践:一份全面的实战指南
2025-11-16
上海首例AI提示词案背后:看“咒语”的时代变迁
2025-11-15
一份把 GPT-5.1 用到极致的实战提示词大全
2025-11-15
关于智能体(AI Agent)最常用框架,做了超详细的总结!
2025-11-15
提示词工程平台:让每个智能体都有"专业大脑"
2025-11-15
这个大师级Prompt,你一定要用起来
2025-09-02
2025-09-03
2025-09-04
2025-09-06
2025-08-28
2025-09-21
2025-09-05
2025-08-22
2025-09-05
2025-09-15
2025-09-02
2025-08-11
2025-08-10
2025-07-24
2025-07-22
2025-07-19
2025-07-08
2025-07-04