免费POC,零成本试错

AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


提示工程已死?恰恰相反,这5个高阶玩法才是拉开差距的关键

发布日期:2025-08-13 20:56:09 浏览次数: 1523
作者:星空拾荒

微信搜一搜,关注“星空拾荒”

推荐语

提示工程远未过时,掌握这5种高阶技巧让你在AI时代脱颖而出。

核心内容:
1. 提示工程的两种核心模式:对话模式与产品模式
2. 五种被验证有效的高阶提示技术详解
3. 实战案例展示如何应用这些技术提升模型表现

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 

“用一个糟糕的提示,你的模型在某个任务上的准确率可能是0%;换一个好提示,准确率能飙升到90%。”

说出这句话的,是Sander Schulhoff,一位OG提示工程师。他不仅创建了互联网上最早的提示工程指南,还领导了收集了超过60万条攻击性提示的Hackaprompt挑战赛。

近来,随着模型智能越来越高,一种论调甚嚣尘上:“提示工程已死,模型足够聪明了”。然而,事实果真如此吗?

1. 提示工程的两种模式:日常对话 vs. 工业级产品

要理解提示工程,首先要明白它在不同场景下的两种核心模式,这两种模式的底层逻辑和优化目标截然不同。

  • • 对话模式 (Conversational Mode)

这就像我们与同事的头脑风暴。你和ChatGPT、Claude等模型进行一来一回的迭代式对话,逐步修正、引导,最终得到满意的结果。

这种模式追求的是灵活性和探索性。

  • • 产品模式 (Normal/Product Mode)

这更像是为自动化生产线编写一条精确、无歧义的指令。提示被设计为一次性、高度优化的“代码”,嵌入到某个产品或服务中(如自动化邮件处理、数据分析工具)。

它一旦定型,便很少改动,追求的是极致的稳定性、可靠性和成本效益

我们今天讨论的大部分高级技巧,正是在“产品模式”中发挥着至关重要的作用。

2. 五种被验证有效的提示技术

1. Few-shot Prompting (少样本提示)

语言模型在训练阶段接触了大量类似“问题-答案”或结构化的数据格式(如JSON、XML)。

通过在提示中提供几个高质量的输入-输出范例(Examples),我们实际上是在激活模型已经学会的“模式识别”能力,引导它按照我们期望的格式和逻辑进行输出。

这比单纯用自然语言描述要求要直接和有效得多。

“当你要求LLM做一件事时,给它看好的例子是什么样的。”

实战格式:

Q: [输入示例1]
A: [期望输出示例1]

Q: [输入示例2]
A: [期望输出示例2]

Q: [我的真实输入]
A:

2. Decomposition (任务分解)

大型语言模型在处理单一、明确的任务时表现出色,但在面对一个宏大而复杂的问题时,容易出现逻辑跳跃或忽略关键细节。这与人类的工作方式类似。

将一个大项目分解成一系列小步骤,可以显著降低每个步骤的认知负荷,从而保证最终结果的准确性和完整性。

“别直接一次性解决这个问题。而是问:‘在回答之前,请告诉我需要首先解决哪些子问题?’”

实战案例

一个汽车经销商的聊天机器人收到“我想退车”的请求。直接处理非常复杂。

  • • 错误方式: “请处理这个客户的退货请求。”
  • • 正确方式(分解): “一个客户想退货。在回应之前,请列出你需要先解决的子问题。”
    LLM的输出可能就是:
    1. 确认客户身份。
    2. 查询客户的车型和购买日期。
    3. 检查车辆是否符合退货政策。
    4. 生成相应的回复草稿。

3. Self-criticism (自我批评)

这项技术利用了LLM的推理和评估能力,构建了一个内部的“生成-评估”反馈循环

第一次生成的内容是初稿,随后的“批评”指令则强制模型切换到“审阅者”视角,利用其庞大的知识库来检查初稿中的事实错误、逻辑漏洞或不一致之处。

这本质上是模拟了人类写作中的“草稿-修改-定稿”过程。

“你问LLM:‘你能检查一下你的回应吗?’它会输出一些东西,你让它批评自己,然后改进自己。”

执行步骤

  1. 1. 提问: “总结一下引力波的发现过程。”
  2. 2. 要求批评: “请检查你上面的回应,指出任何不准确或可以改进的地方。”
  3. 3. 要求改进: “现在,根据你提出的批评,生成一个最终的、改进后的版本。”

4. Additional Information (附加信息/上下文)

LLM的回答质量直接取决于输入信息的丰富度和准确度。

当任务涉及专业领域或特定知识时,模型可能会因为缺乏精确的“世界知识”而产生误解。

提供附加信息,就如同给模型一个“即时词典”或“背景资料包”,帮助它在正确的知识框架内进行推理和判断,避免歧义。

“你正在尝试让模型完成某项任务。你希望尽可能多地提供关于该任务的信息。”

实战案例

在一项医疗编码任务中,需要LLM对Reddit帖子进行分类。

当遇到“Entrapment”一词时,模型可能会误解为物理上的“陷阱”。

改进提示: “...在下面的文本中,术语‘Entrapment’指的是一种心理状态,定义为‘个体感到被困在某种处境中,并且认为逃离的代价很高’。请基于这个定义进行分类...”

5. Ensembling Techniques (集成技术)

这个思想源于机器学习中的集成学习方法。

单个模型或单个提示可能会有其固有的“视角盲区”或随机性。

通过使用多个不同视角(提示、角色、甚至模型)来解决同一个问题,然后对答案进行聚合(如投票),可以有效地平滑掉单个输出的极端偏差,从而获得一个更鲁棒、更可靠的最终答案。

“集成技术会针对一个问题,用多个不同的提示来解决同一个问题……然后取最常见的答案作为我的最终答案。”

实战案例:“推理专家混合”

针对一个复杂的历史问题,你可以让三个LLM分别扮演“历史教授”、“考古学家”和“社会学家”的角色进行回答,最后综合它们的答案。

3. 不再有效的提示技术

1. Role Prompting(角色提示

定义: 赋予AI一个角色,例如“你是一位数学教授”或“你是一位世界级文案”,然后让它执行任务。

现状:对于基于准确性的任务(如数学问题),角色提示不再能带来显著的性能提升。早期研究中的微小准确率差异(0.01%)缺乏统计学意义。

有效场景:角色提示仍适用于表达性任务(如写作、总结),因为它们影响输出的风格。例如,要求LLM以鲁迅的风格生成回答。

2. 奖励/威胁承诺无效:

定义: 在提示中加入奖励承诺(如“我会给你5美元小费”)或威胁(如“这对我职业生涯非常重要,如果答不好会有人死”)。

现状: 早期模型可能会因为这些情感化或激励性的文本在训练数据中的关联,而产生微小的性能波动。但是现在已经不再有效。

 


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询