微信扫码
添加专属顾问
我要投稿
提示工程远未过时,掌握这5种高阶技巧让你在AI时代脱颖而出。核心内容: 1. 提示工程的两种核心模式:对话模式与产品模式 2. 五种被验证有效的高阶提示技术详解 3. 实战案例展示如何应用这些技术提升模型表现
“用一个糟糕的提示,你的模型在某个任务上的准确率可能是0%;换一个好提示,准确率能飙升到90%。”
说出这句话的,是Sander Schulhoff,一位OG提示工程师。他不仅创建了互联网上最早的提示工程指南,还领导了收集了超过60万条攻击性提示的Hackaprompt挑战赛。
近来,随着模型智能越来越高,一种论调甚嚣尘上:“提示工程已死,模型足够聪明了”。然而,事实果真如此吗?
要理解提示工程,首先要明白它在不同场景下的两种核心模式,这两种模式的底层逻辑和优化目标截然不同。
这就像我们与同事的头脑风暴。你和ChatGPT、Claude等模型进行一来一回的迭代式对话,逐步修正、引导,最终得到满意的结果。
这种模式追求的是灵活性和探索性。
这更像是为自动化生产线编写一条精确、无歧义的指令。提示被设计为一次性、高度优化的“代码”,嵌入到某个产品或服务中(如自动化邮件处理、数据分析工具)。
它一旦定型,便很少改动,追求的是极致的稳定性、可靠性和成本效益。
我们今天讨论的大部分高级技巧,正是在“产品模式”中发挥着至关重要的作用。
语言模型在训练阶段接触了大量类似“问题-答案”或结构化的数据格式(如JSON、XML)。
通过在提示中提供几个高质量的输入-输出范例(Examples),我们实际上是在激活模型已经学会的“模式识别”能力,引导它按照我们期望的格式和逻辑进行输出。
这比单纯用自然语言描述要求要直接和有效得多。
“当你要求LLM做一件事时,给它看好的例子是什么样的。”
实战格式:
Q: [输入示例1]
A: [期望输出示例1]
Q: [输入示例2]
A: [期望输出示例2]
Q: [我的真实输入]
A:
大型语言模型在处理单一、明确的任务时表现出色,但在面对一个宏大而复杂的问题时,容易出现逻辑跳跃或忽略关键细节。这与人类的工作方式类似。
将一个大项目分解成一系列小步骤,可以显著降低每个步骤的认知负荷,从而保证最终结果的准确性和完整性。
“别直接一次性解决这个问题。而是问:‘在回答之前,请告诉我需要首先解决哪些子问题?’”
一个汽车经销商的聊天机器人收到“我想退车”的请求。直接处理非常复杂。
“请处理这个客户的退货请求。”
“一个客户想退货。在回应之前,请列出你需要先解决的子问题。”
这项技术利用了LLM的推理和评估能力,构建了一个内部的“生成-评估”反馈循环。
第一次生成的内容是初稿,随后的“批评”指令则强制模型切换到“审阅者”视角,利用其庞大的知识库来检查初稿中的事实错误、逻辑漏洞或不一致之处。
这本质上是模拟了人类写作中的“草稿-修改-定稿”过程。
“你问LLM:‘你能检查一下你的回应吗?’它会输出一些东西,你让它批评自己,然后改进自己。”
“总结一下引力波的发现过程。”
“请检查你上面的回应,指出任何不准确或可以改进的地方。”
“现在,根据你提出的批评,生成一个最终的、改进后的版本。”
LLM的回答质量直接取决于输入信息的丰富度和准确度。
当任务涉及专业领域或特定知识时,模型可能会因为缺乏精确的“世界知识”而产生误解。
提供附加信息,就如同给模型一个“即时词典”或“背景资料包”,帮助它在正确的知识框架内进行推理和判断,避免歧义。
“你正在尝试让模型完成某项任务。你希望尽可能多地提供关于该任务的信息。”
在一项医疗编码任务中,需要LLM对Reddit帖子进行分类。
当遇到“Entrapment”一词时,模型可能会误解为物理上的“陷阱”。
改进提示: “...在下面的文本中,术语‘Entrapment’指的是一种心理状态,定义为‘个体感到被困在某种处境中,并且认为逃离的代价很高’。请基于这个定义进行分类...”
这个思想源于机器学习中的集成学习方法。
单个模型或单个提示可能会有其固有的“视角盲区”或随机性。
通过使用多个不同视角(提示、角色、甚至模型)来解决同一个问题,然后对答案进行聚合(如投票),可以有效地平滑掉单个输出的极端偏差,从而获得一个更鲁棒、更可靠的最终答案。
“集成技术会针对一个问题,用多个不同的提示来解决同一个问题……然后取最常见的答案作为我的最终答案。”
针对一个复杂的历史问题,你可以让三个LLM分别扮演“历史教授”、“考古学家”和“社会学家”的角色进行回答,最后综合它们的答案。
定义: 赋予AI一个角色,例如“你是一位数学教授”或“你是一位世界级文案”,然后让它执行任务。
现状:对于基于准确性的任务(如数学问题),角色提示不再能带来显著的性能提升。早期研究中的微小准确率差异(0.01%)缺乏统计学意义。
有效场景:角色提示仍适用于表达性任务(如写作、总结),因为它们影响输出的风格。例如,要求LLM以鲁迅的风格生成回答。
定义: 在提示中加入奖励承诺(如“我会给你5美元小费”)或威胁(如“这对我职业生涯非常重要,如果答不好会有人死”)。
现状: 早期模型可能会因为这些情感化或激励性的文本在训练数据中的关联,而产生微小的性能波动。但是现在已经不再有效。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-05-19
2025-06-27
2025-06-12
2025-06-21
2025-06-10
2025-07-03
2025-05-17
2025-06-03
2025-07-03
2025-05-16
2025-08-11
2025-08-10
2025-07-24
2025-07-22
2025-07-19
2025-07-08
2025-07-04
2025-06-23