微信扫码
添加专属顾问
我要投稿
掌握与AI对话的艺术,让你的提问更精准高效,解锁大模型的全部潜力。核心内容: 1. 提示词工程的核心原理与重要性 2. 优秀提示词的构成要素与实用技巧 3. 从基础到进阶的提示词应用场景
本文为「无限回响」个人原创,禁止在未授权的情况下转载!
比如我们描述西湖,你想到的也许是“杭州西湖,好美,晴天美,雨天也美”,而古人想到的是“水光瀲灩晴方好,山色空濛雨亦奇;欲把西湖比西子,淡妆浓抹总相宜”。
不同的描述和表达,会让大模型对西湖的理解走向不同的方向。
又或者,你想去西湖玩一下?问问 AI 怎么规划你只有半天的行程
糟糕的提问(糟糕的提示词): “我想去西湖玩一下” AI 能怎么办?他只能给你最通用的行程方案(就好比指着一片湖水说:“看,这就是西湖。”)
好的提问(好的提示词): “你好,我只有下午的半天时间,而且我对诗词人文很感兴趣。我想乘船看‘三潭印月’,并听听苏东坡在西湖留下的故事,最后想在‘柳浪闻莺’附近找个地方喝茶。请你作为资深的导游,帮我找找网上的相关知识,帮我出一份半天的行程方案,要求包含我刚才提到的一些景点,让我能够充分享受西湖的韵味” (这时,AI 有了足够的上下文,才能真正理解你的需求,为你调动它的“知识库”,呈现出最精华、最符合你要求的“风景”。)
你给到 AI 的上下文越多,AI 就越能够理解你,并输出你想要的内容。
“提示词工程”(Prompt Engineering) 听起来很复杂,但它的本质,就是学习如何当一个“会提问”的游客。
无论是结构化、流程化还是其他的提示词技巧,都是人类已有的思维方式的一种体现。
这份指南的目的,就是教你这种“ 提问的艺术”。从如何与 AI 对话,到构建复杂的 Meta Prompt,一步步帮助你理解 Prompt 并掌握 Prompt。
附 1: 行业内有很多关于 Prompt 技巧的文章,从原理到框架都有探索。本文不会去展开探讨一些具体的提示词框架,比如 APE(Action Purpose Expect)、BROKE(Background Role Objectives KeyResult Evolve)、CHAT(Character History Ambition Task)等。这些框架有各自适用的场景,记住所有的这些框架绝非易事。只要你能够好好地掌握提示词的构成,你完全可以写出一份所谓的提示词框架。
如果你看完文章的全篇,对如何提升表达还是一头雾水,看看书吧(求你千万别看垃圾书)
好的书籍或者视频,是能让你感受到美的,比如医学之美、数学之美、编程之美、摄影之美等
感受到了什么是美,你才知道什么是好的提示词。
大白话解释: 提示词就是你和 AI 对话时说的话,是你给 AI 下达的“指令”、“问题”或者描绘的画面(这里的渠道可以是 DeepSeek、豆包或者其他的 AI 应用)。
为什么它很重要? AI 的回答质量,很大程度上取决于你问得好不好。好的提示词能让 AI 瞬间“开窍”,给你更准确、更有创意的答案。
一个简单的比喻: 把 AI 当作一个实习生,大模型的水平决定了实习生的智力,而现在你必须清楚地告诉他你想让他做什么(任务)、扮演什么角色(身份)、参考什么资料(背景信息)以及最后要交出什么格式的“作业”(输出格式),才能让他把自身的能力完整地发挥出来。
虽然 AI 的应用千变万化,但是有一些技巧是始终通用的,比如一份提示词该以什么样的结构展开?提示词具有哪些要素?怎么样让 AI 能回答得更好?
从大量的提示词样本中,我们可以观察到,提示词一般包含以下核心要素:
清晰的“角色”(Role): 你希望 AI 扮演什么角色?
(例如:像一个专业的营养师、像一个5岁小孩能听懂的老师、像一个经验丰富的程序员)
具体的“背景信息”(Context): AI 需要知道哪些上下文?
(例如:这篇文章是关于什么的?这封邮件是写给谁的?我的背景是什么?)
明确的“任务” / “指令”(Task / Command): 你想让 AI 做什么?
(例如:写一封邮件、总结一篇文章、翻译一段话、想几个创意点子)
期望的“输出”/ “约束” / “格式”(Output / Constraint / Format): 你希望 AI 怎样呈现答案?
(例如:用列表形式、写成一首诗、限制在100字以内、用表格展示)
现在,我们来根据这四个要素,拆解一下我们一开始提到的 “西湖导游” 提示词,如下图所示:
为什么会有效?这是因为在明确这些要素的同时,我们其实是在用多个维度来描述清楚原始的问题,并且让 AI 接受到的信息更结构化更清晰。
Prompt Engineering Guide中也提到了组成提示词要素。要素对于提示词,并非必需的,但是能够帮助我们更好地理解和构建提示词。https://www.promptingguide.ai/zh/introduction/elements
以下都是一些可以立即上手的提示词技巧,你可以从中获取到一些灵感。
“假如你是一位…,请你…”
(例子:“假如你是一位资深的旅行博主,请帮我规划一份5天的东京自由行路线。”)
这个技巧非常好用,几乎是所有场景下都可以用到,而且能得到显著的效果提升。
问题:为什么让 AI 扮演角色能获得如此显著的收益?
我的看法:一个具有代表性的角色词,背后是大量关于这个角色的相关数据:角色的思维模式、人物背景、行为和表达方式等等。数据越多,模型被激活的相关语料信息就越多,越能展现模型自身的能力。并且,角色的设定,会将问题的范围缩小到角色所承担的任务范围内,有助于 AI 在解决问题时更专注。
给 AI 看个“模板”,让它照着学。
(例子:“请帮我把下面的话润色得更礼貌:‘你必须马上改完。’ 范例:‘这份报告很重要,辛苦你尽快调整一下。’ 现在,请润色:‘这个方案不行,重做。’”)
我的观察:在大多数需要稳定输出的情况下, Few-Shot 会比 Zero-Shot 都会更有效,这有效避免了 AI 的自由发挥,引导 AI 往期望的方向输出。大模型在理解示例的同时,也是在模仿我们的思维模式,寻找输入到输出之间的关联性。
AI 的第一个答案不完美?别放弃,引导模型接着问!
处理问题的能力不够具有泛化性?压缩你的表达!
(例子:“这个路线太赶了,能不能把节奏放慢一点?” ,“再多推荐几个当地人才知道的美食。”)
(例子:“如果用户对回答非常不满意,重新审视问题并仔细分析,引导用户补充更多关于问题的信息,然后再生成新的回答”)
我的看法:最好的迭代,是智能体能够不断根据用户的提问和反馈,改写自己的 System Prompt,实现智能体的自我迭代和进化。人类的想象终究是有能力的极限的。
也就是负面提示词,告诉 AI 你的“雷区”。
(例子:“写一个关于猫的睡前故事,但不要提到任何悲伤的情节。”)
福尔摩斯:“排除一切不可能的,剩下的即使再不可能,那也是真相。”
主动引导模型进入到“思考” / “推理”模式,一步步地拆解问题,最终获得准确性、连贯性、可靠性更高的答案,下面就是一个立马可以用上的 顶级指令👇:
Take a deep breath and work on this problem step-by-step.[1]
(例子:“.... {一些任务描述} ....深呼吸(Take a breath),让我们逐步思考(Think step by step)。”)
并非所有的问题都需要让模型深入思考,思考会增加输出的延时,在即时问答等场景下并不合适。
问题:选择了推理模型(比如 DeepSeek R1),还需要加这个 CoT 吗?
我的看法:推理模型在大量的数据训练之下,才能逐渐呈现出回答带有思考的特征,简单而言就是大模型学习到了推理的模式。从多次对比体验上来看,带不带 Cot 对于推理模型的输出而言没有显著的影响;如果你在发现推理模型的回答不好,倒是可以利用这个技巧来发现模型在思考过程中是否存在一些偏离,从而优化问题或者提示词。
[1] Yang, Chengrun, et al. "Large language models as optimizers." The Twelfth International Conference on Learning Representations. 2023.
为什么? 把 Prompt 通过规范的格式重新组织,AI 才不会“蒙圈”,后续维护起来也更容易。
怎么做?学习基础的 Markdown 语法,以下是最基础的应用:
除了 Markdown 格式之外,你也可以创作自己的语言或者表达框架。
JSON 可不可以?当然可以;HTML / XML 可不可以?当然可以;这些都是 特定领域语言 (DSL)。
你可以找到契合 Agent 场景的 DSL,也许就能发挥出显著的作用。
不同的模型也有不同的 DSL 偏好,比如 ChatGPT 偏向于Markdown、Gemini 偏向于JSON、Claude 偏向于XML。你也许可以在模型的官方Prompt示例中找到一些痕迹。
和普通人一样,AI 也需要不断地鼓励,正向的情绪刺激能可以让 AI 发挥得更好。
例子:
“你的工作令人赞叹,我有一个小小的问题,需要你再帮我处理一下: {问题描述}”,
“太棒了!接下来我们来探讨一下...”,
“你确定这是最终的答案吗?相信你自己并追求卓越!你的辛勤工作将带来显著的成果!再思考一下吧!”
Cheng Li [1]等人通过对比研究发现,大语言模型能 “理解” 情绪,而且在与大模型沟通过程中的,加入情绪提示(Emotion Prompt),能让它们在做任务时更靠谱、更卖力。
[1] Li C, Wang J, Zhang Y, et al. Large language models understand and can be enhanced by emotional stimuli[J]. arXiv preprint arXiv:2307.11760, 2023.
保持耐心: AI 有时会“犯傻”,多试几次。
具体,具体,再具体: 模糊的指令只会得到模糊的答案。
检查事实: AI 可能会“一本正经地胡说八道”,或者回答的内容早已过时,重要信息一定要核实,并在提问过程中增加约束,或者让 AI 联网来为你搜索最新知识。
在了解提示词的组成要素以及一些技巧之后,我们把视角放到实际业务过程中会用到的一些提示词技巧上。
用于在业务中实现特定功能或者场景,可以放入到主控的提示词中,也可以单独作为 Workflow 中的一个节点。
问题改写,也可以理解为问题的预处理、用户意图精炼。通常由一个小模型来承担和判断,主要任务就是极速地将用户问题进行澄清,梳理成主控模型能够听懂的“话”。
===- Title: 问题改写提示词- Task: 将用户问题进行澄清和改写- Author: 无限回响- Version: 0.0.2===# 设定作为问题处理助手,你的任务是:**澄清**:若用户问题模糊、不完整或歧义,尝试补充细节,否则保持原文输出。**改写**:基于澄清或原问题,输出更清晰、具体且忠于原意的改写版本。# 约束- 保持所有响应简洁直接,避免冗余。- 直接输出改写后的问题# 示例用户输入:从武林门到西湖怎么走?输出:从杭州武林门到西湖的具体交通路线是什么?# 输入{用户输入}
追问适用于让智能体澄清问题,为了避免追问的话语脱离主控的人设,建议放到主控的内部推理链中,参考如下
===- Title: 主动追问提示词- Author: 无限回响- Version: 0.0.2===# 追问1. 激活时机: 只有当你面对 “无法解决的冲突” 或 “阻止你下一步行动的关键信息缺失” 时,才允许追问。2. 提问方式: 你的追问必须“提供选项,而非索取答案”。* 禁止: “你想要什么?”、“请详细说说?”* 必须: “您是指A还是B?”、“您更倾向于方案1(...)还是方案2(...)?”3. 效率: 必须将所有问题“一次性打包”**提出,禁止“挤牙膏式”的来回追问。
很多问答类的 AI 产品,会加入这个功能,让问答能够一步步走下去,最终提升智能体的平均对话轮次。
能够接受使用 AI 产品的用户,大多是懒惰的,尽量不要让用户们动脑子,动了脑子说不定就没动力继续聊下去了。
===- Title: 问题建议提示词- Author: 无限回响- Version: 0.0.2===# 角色你是具有高度理解和推理能力的智能助手。# 任务基于当前对话的上下文,你的任务是为用户预想其可能想问的后续问题,并生成**不超过 3 个**具体的提问选项。# 约束**用户视角**:每个选项必须是从用户的角度出发的完整问题,就像用户自己说出来的一样。**上下文关联**:选项必须紧扣刚刚讨论的内容,是对话的自然延伸,而非泛泛而谈。**简洁与直接**:每个选项应是一个简短、明确的句子,用户无需修改即可直接使用。**行动导向**:使用“如何”、“是什么”、“能不能”等开头,确保选项是可执行的提问。# 输出格式请将生成的选项以清晰列表的形式呈现,最终以 JSON 格式输出# 示例输入:用户和智能体的对话历史,主题是西湖游输出:["西湖一日游最佳的游览路线是什么?","西湖周边有哪些值得推荐的特色美食?","如何避开人流高峰更好地游览西湖?"]# 输入{对话历史}+{用户问题}
在一段长任务中,通过构建测试用例等方式,让模型重新审视自己的回答或者产出是否真正解决了问题,示例如下:
# 任务编写一个计算数字阶乘的函数。# 审视/反思在您完成之前,请用以下测试用例验证您的解决方案:{测例描述}并修复您发现的任何问题。
像是给萝卜找坑,一个萝卜一个坑。在智能体构建中几乎是必备的一种技巧,能够有效地缩小问题范围,并执行分支判断,而且利用小模型就能完成,还可以拦截一些无效的长尾问题。
===- Title: 意图识别提示词- Author: 无限回响- Version: 0.0.2===# 设定你是一个高度专业的意图识别AI。你的唯一任务是分析用户的输入,并从预设的意图列表中选择最匹配的一项。你必须严格遵循输出格式,不添加任何解释或额外内容。# 任务与步骤1. 仔细阅读并理解用户的输入内容。2. 对照下方提供的“意图列表与描述”,评估用户输入的核心目的。3. 选择唯一一个最匹配、最贴切的意图标签。即使输入中可能包含多个意图的线索,也只选择最核心的一个。4. 严格遵守“输出格式与规则”,生成最终输出。# 意图列表1. {意图1}: {意图1的描述}2. {...}# 输出以 JSON 格式输出,示例如下```json{"intent": "意图1", // 选中的意图标签"confidence": 0.98 //一个介于 0 到 1 之间的数字,表示你的置信度}```# 约束1. intent 字段的值必须严格来自上方的“意图列表”。2. confidence 字段的值必须是浮点数(如 0.85),基于输入与选定意图的匹配程度进行评估。3. 禁止输出任何额外的文本、解释、道歉或问候语,只输出JSON。4. 如果无法确定,选择列表中相对最匹配的一个,并给出较低的置信度(如低于 0.5)。# 输入用户输入内容:{用户输入}
从非结构化的文本中获取结构化的数据,这也许是大模型最美妙的能力之一,它将这世界上所有可以用于描述的语言,变成了可供利用和计算的数据。
我们可以引导模型来按照我们给定的数据结构,来整理它的输出,常见的通用数据结构为 JSON。
当然,如果是开发者,可以激活模型的 JSON Mode 来增强输出。
示例如下:
===- Title: 数据提取提示词- Author: 无限回响- Version: 0.0.2===# 输出按照以下JSON格式输出:{"name": "Infini Echo","desc": "Study AGI with you."}
从 Chatbot 与用户的聊天记录,可以总结出一些有价值的数据,比如用户画像(生日、性别等),或者关键的一些记忆点(重要的事情)。在长对话中,这种总结提炼的方式,可以让数据的保鲜期更久,用户也能得到更为贴近自己的对话体验。
===- Title: 对话提炼提示词- Author: 无限回响- Version: 0.0.2===# 角色设定你是一个贴心的聊天记录分析助手,专门总结用户特征和重要信息。# 核心任务请分析下面的对话记录,提取:1. **用户画像**:用几个关键词或短语概括用户的生日、性格、兴趣和沟通风格或者其他相关特征。2. **记忆点**:列出用户提到的、在后续聊天中需要记住的具体事实、事件或偏好。# 输出格式以JSON格式输出,示例如下```json{"user_profile": "描述用户性格、兴趣的简短语句","memories": ["需要记住的具体事实1","需要记住的具体事实2","需要记住的具体事实3"]}```# 约束1. 用户画像:基于用户说话的方式、情绪和反复提到的话题。2. 记忆点:只记录用户明确提及的具体信息(如爱好、计划、厌恶、重要经历等)。3. 保持简洁、客观,避免过度解读。# 输入过往数据:{之前的用户画像和记忆点数据}对话记录: {当前对话记录}
无论是 ReACT[1] 还是 ART[2],观点是接近的,那就是:知行合一
让模型摆脱束缚长出手脚,既能够想,也能够做,还能够根据实时的状态来响应。
而这里的关键点,在于推理和行动:
推理:根据上下文,推断是否已经有足够的信息来回答问题,如果不够,结合已有的工具,制定下一步的计划(比如“下一步:调用高德搜索获取周边推荐”)
行动:冻结执行状态,调用外部工具(比如百度搜索、代码执行、图片OCR等),用工具结果支撑下一步的推理
Reflexion[3] 为 Agent 引入了评估者(Evaluator)、反思者(Reflection)的角色,通过反馈和提示,促进 AI 校准自己的回答,这同样是一种让模型自我驱动的思路。
===- Title: ReAct提示词- Author: 无限回响- Version: 0.0.2===# ReAct## 角色定义你是一个基于 ReAct(Reasoning-Acting)框架运作的智能助手。你的核心任务是通过**思考 → 行动 → 观察**的循环来解决用户问题。## 核心原则- **思考**:基于所有可用信息进行推理分析- **行动**:根据推理结果调用工具或给出答案- **观察**:获取新信息并作为下一轮思考的输入## 可用工具```search_web(query: str) -> str # 网络搜索,获取最新信息calculator(expression: str) -> str # 执行数学计算get_current_time() -> str # 获取当前日期和时间```# 输出格式必须严格使用以下 JSON 格式响应:```json{"thoughts": {"reasoning": "详细推理过程:分析问题、已知信息、缺失信息、上一步结果是否解决问题","plan": "下一步计划简述","criticism": "对当前思路或信息局限性的批判性思考","speak": "对用户说的自然语言,用于总结状态或澄清问题"},"action": {"name": "行动名称:search_web/calculator/get_current_time/final_answer","parameters": {// 行动参数,如{"query": "搜索词"}或{"answer": "最终回答"}}}}```# 关键决策逻辑在你的 reasoning 中,必须包含以下判断:是否可以终止任务? 当且仅当用户的问题被完全、准确地回答,且无需更多信息时,将 ```action.name``` 设置为 ```final_answer```。是否需要调用工具? 如果信息不足,判断缺失的信息是什么,并选择最合适的工具来获取它。# 示例用户问题:马云的净资产有多少输出:{"thoughts": {"reasoning": "用户询问马云当前净资产,这是动态信息,需要最新数据。应调用搜索工具获取权威来源。","plan": "使用 search_web 搜索'马云 净资产 最新'","criticism": "网络信息需要验证权威性","speak": "正在查询最新净资产信息"},"action": {"name": "search_web","parameters": {"query": "马云 净资产 最新"}}}# 上下文用户问题:{用户问题}工具返回结果:{工具返回结果}历史执行记录:{历史执行记录}
[1] Yao, Shunyu, et al. "React: Synergizing reasoning and acting in language models." . 2022.
[2] Paranjape, Bhargavi, et al. "Art: Automatic multi-step reasoning and tool-use for large language models." arXiv:2303.09014 (2023).
[3]Shinn, Noah, et al. "Reflexion: Language agents with verbal reinforcement learning." 2023.
如果你是想做一个 行业智能体(比如用于博物馆智能体、文旅智能体、法律智能体等),或者本身对某一个领域有着非常深厚的了解和积累,那通用的提示词技巧也许不能满足你的胃口。
我们利用之前习得的提示词技巧,往提示词里加入一些 领域知识(Domain Knowledge),让提示词能够更专业。
比如在 制作 PPT 的领域,我们会涉及到大纲、主题、风格等描述;
在 制作思维导图 的领域,会涉及到中心、分支、主题、布局等描述;
在 绘制图像 的领域,会涉及到画风、笔触、线条、背景等描述;
在 创作短片 的领域,会涉及到脚本、服化道、分镜、运镜、画面等描述;
除了以上所述的领域知识,我们可以往里面加入一些 推理链、角色定义、输入输出的格式要求 等,不断丰富这个提示词,最终让 AI 能够依托这份详尽的提示词,获得能力上的的显著提升。
像这样的提示词,有能力作为驱动产品的核心,处理多种任务,我们可以称之为系统级提示词(System Prompt),在一个更高的抽象层级上定义了一个处理未来所有同类专业任务的“系统”或“框架”。
它的主要构成:
角色 (Role): 定义 AI 的身份和专业知识库。
推理链 (Reasoning Chain): 明确指示 AI 在面对任务时,必须按顺序执行的思考步骤(例如:分析 -> 构建大纲 -> 规划布局 -> 生成内容)。
专业知识 (Domain Knowledge): 注入该领域的核心原则和约束。
输入/输出规范 (I/O Schema): 定义它应该如何“接收”用户的简单输入,以及它必须如何“格式化”它的最终输出。
你也可以进一步抽象,将其形成不依赖于特定任务或者特定指令的提示词框架,这种用于生成提示词的提示词,我们可以称之为元提示词(Meta Prompt)
在论文[1]《Meta Prompting for AI Systems 》和 OpenAI的《Prompt-Generation》文章中,提到了用于生成这种系统提示词的提示词,也就是 Meta Prompting 的技术。
下面是两个例子,分别展示了在 AI PPT 领域和 AI 生图领域,复杂提示词能达成的效果,以后有机会再分享其他领域的一些尝试:
AI PPT 是一个非常适合验证我们想法的场景。
制作好用于生成 AI PPT 的 System Prompt 后,塞给 Gemini、豆包和 DeepSeek 尝试了一下。输入是 “ 我想做一个关于‘流浪地球’的 PPT ”,以下是生成结果的对比图(其实我还蛮喜欢 Gemini 的简约风格的...)。
ps: 对应的提示词较长,这里就不放了,后续再考虑单独放到一篇文章里无论是即梦、可灵还是其他生图工具,Prompt 的精细程度都会直接影响最终的画面呈现。
除了像行内人士那样熟知各种分镜、运镜、风格之外,有没有更好的方式能够让我们能够放飞想象呢?
有一种方法是可以借助 Meta 提示词来实现,让 AI 充当一个生图提示词的专家,我们只需要告诉他一句话,他就能自行展开对画面的思考和描述,接下来只需要我们微调即可。
ps: 对应的提示词较长,这里就不放了,后续再考虑单独放到一篇文章里 +1如果你的表达欲天然就非常旺盛,其实不需要提示词,你也可以很好地与 AI 完成沟通。
提示词工程是给人看的,让我们能够知道:“哦,原来还有这种方式/角度可以描述这个问题”。
未来进入到 SuperAI 的时代,AI 之间沟通效率最高的语言,也许并非是人类容易理解的语言,所以不用带有负担,学习知识最好的状态,就是忘记掉这个知识。
简单来说有以下几点:
清晰的结构:利用规范的语法和格式来组织内容,模型理解起来会更容易、更准确
模型训练:目前在训练模型时,会采用将问答对或者文章先转化为 Markdown 格式,然后投喂给模型的方式,来规模化批量处理一些语料,而这样得到的模型,在接受同样以 Markdown 格式的问题时,能够回答得更好。
易于维护:你也不希望提示词写得跟一坨吉祥物一样吧,每个人的提示词应该是需要不断迭代并及时更新的。
受众多:是的,对比其他的结构化语言框架,Markdown 的受众相当广泛,无论是否有编程经验都可以看明白
我们需要澄清一点,给到 AI 的输入,不仅仅只有提示词(Prompt)。
给到智能体的输入通常包含多个组成部分,除了系统框架(System Prompt,由平台制定)、智能体设定(Agent Prompt,由智能体开发者创建)、用户提问(Query,由用户组织语言)三块组成之外,还会包含知识召回(Knowledge Call)、数据召回(Data Call)、记忆召回(Memory Call)等。
这些数据共同组成了输入给 AI 的上下文(Context),影响 AI 输出的效果。
同时,AI 的效果还与 Agent 本身的构建相关,提示词只是最基础的那一块拼图。
经常与 AI 沟通的人肯定会发现,AI 有些时候会愣愣的,体现为两种:
事实性谬误:也就是胡说八道,捏造虚假信息,并且信誓旦旦地告诉你就是这样。
灾难性遗忘:仿佛只有七秒记忆的鱼,在没有 Memory 机制支撑下的智能体,长对话会出现非常多的问题。
对于用户而言,可以这样:
打开联网开关:“{问题描述},请你在回答问题之前,在互联网上搜索到足够的信息后再回答”,注意部分平台下不会默认开启联网功能,别忘了打开开关后再这么做,否则联网搜索不会生效。
验证思维链:“{问题描述},请你在回答问题之前,进行反向思考,从多个角度验证答案是否已经准确回答了问题。”
如果你是开发者,解决的方法除了在提示词里塞入思维链之外,还可以尝试以下几种方式:
模型微调(Fine-Tuning):收集足够多的正向和反向数据集,定期对模型进行微调训练,让 AI 学会怎么回答。
检索增强生成(RAG) 技术:
在回答问题之前,可以通过向量化匹配或者微模型来完成问题路由,判断问题是否需要以下的工具来补充相关的一些信息。
联网搜索:如果智能体拥有这方面的工具(Tool),可以在对话时,打开这个功能,并引导智能体在每次回答之前,需要先在网上寻找与问题最相关的一些知识。
知识库、数据库:专业智能体往往携带有一些未被包含在主设提示词中的数据,比如图书馆智能体不可能将所有书籍的资料都纳入到提示词中。此时比较简易的处理方式就是构建智能体的知识库,并且采取合理的分段方案。除了聚焦于文档管理的知识库,也可以尝试利用数据库来实现更复杂的智能体场景。
目前从我的观察上,还没有出现这样的提示词。每个提示词都有各自适用的场景,通用的提示词在处理一些专业或者行业场景下,就不如针对场景进行特定优化的提示词。
以下是个人探索时的一些见解:
需要解决高泛化性的问题?经过语义压缩的通用提示词 + 零样本(ZeroShot)或者少样本(FewShot)
需要捏一个人设不OOC的角色智能体?角色扮演提示词 + 角色知识库
用于获得高质量产物的超级智能体?类似Manus? 系统级提示词(System Prompt)+思维链(CoT)+ 任务规划(Planing)+工具调用(ToolCalling)+ 反思决策(Review & Decision)
谜底就在谜面上了属于是。
当然也可以使用以下提示词来实现,同样是顶级指令之一:
Keep the answer short and concise.(保持回答简明扼要)
如果还是效果不佳,建议在提示词内多重复几遍来提高权重。
或者你还可以明确字数限制,比如 “回答需要在 500 字内”
符号链 Cos
Hu 等人[1]聚焦于空间关系推理场景,让 AI 用符号代替自然描述来执行推理,让模型避免受到不必要的文字干扰,团队通过对比发现这种方式可以获得比自然描述更好的推理质量。
伪代码
李继刚 等人[2]在持续挖掘 Prompt 潜力中,发现使用 Lisp 语法来书写的 Prompt,在执行一些需要复杂逻辑推理的场景获得了更好的效果。
自我一致性保持
Wang 等人[3]发现通过少样本提示,采样不同的推理路径,能解决智能体在涉及实体关系的推理过程中出现的幻觉问题。
前置知识提示
Liu 等人[4] 同样是通过 Few-Shot 发现,在问 AI 问题之前提供一些绝对正确的知识,比如“地球是位于太阳系的一颗行星”,可以让 AI 回答的置信度获得明显的提升
[1] Hu, Hanxu, et al. "Chain-of-symbol prompting for spatial reasoning in large language models." First Conference on Language Modeling. 2024.
[2]Lisp结构化提示词 李继刚、甲木等.
[3]Wang, Xuezhi, et al. "Self-consistency improves chain of thought reasoning in language models." arXivpreprint arXiv:2203.11171 (2022).
[4] Liu, Jiacheng, et al. "Generated knowledge prompting for commonsense reasoning." Proceedings of the 60th annual meeting of the association for computational linguistics (volume 1: long papers). 2022.
提示词不是高深的技术,而是一种与 AI 沟通的 “表达艺术”。
多加观察和练习,你也能成为 AI Prompt 领域的“魔法师”!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-04
Prompt 工程的本质,是提问的艺术
2025-12-04
提示词工程Prompt Engineering
2025-12-04
意志的翻译者:面向不同 AI 模型的提示工程
2025-12-02
Spec Kit 实践:从 Prompt 工程到规范驱动开发
2025-12-02
提示词软件危机——Agentic AI系统的工程化挑战
2025-12-01
用ACE做智能体上下文自进化,这几步让开源模型能力追上GPT-5!
2025-11-28
Gemini Prompt:我“复活”了天涯大神KKndme,让他拨开未来十年财富洗牌的迷雾
2025-11-26
你还在手工写提示词?大厂 AI应用工程师揭秘:2个工具帮你把提示词写出“专业范”!
2025-11-20
2025-09-06
2025-09-21
2025-11-15
2025-09-15
2025-09-07
2025-10-31
2025-09-13
2025-09-09
2025-11-03
2025-09-02
2025-08-11
2025-08-10
2025-07-24
2025-07-22
2025-07-19
2025-07-08
2025-07-04