支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


提示工程实战指南:从Zero-Shot到Graph Prompting,7大核心技术全解析

发布日期:2025-05-28 06:53:43 浏览次数: 1569 作者:搬砖程序员带你飞
推荐语

掌握大型语言模型的高效使用技巧,深入了解提示工程的七大核心技术。

核心内容:
1. 零样本提示的简单高效与应用场景
2. 少样本提示的上下文学习能力与示例设计
3. 提示工程在实际任务中的应用示例与优化策略

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家


 

引言

随着大型语言模型(LLM)的发展,提示工程(Prompt Engineering)已成为有效使用这些模型的关键技能。不同的提示技术适用于不同的场景,本文将介绍七种主要的提示优化模式,并分析它们的适用场景和优缺点。

Zero-Shot Prompting(零样本提示)

零样本提示就像你对朋友直接说"帮我查下天气"一样简单自然,不需要给任何例子就能搞定。只要清楚表达需求,AI就能凭借它已有的知识立刻行动起来,这种方式不仅简单高效,还能节省token空间,特别适合那些常见的文本分类、简单问答和内容摘要任务

不过零样本提示也有缺点,比如有时候会产生一些幻觉,处理复杂推理或专业领域的任务时表现有限。想要用好它,需要使用明确的动词指令(比如"分类"、"总结"、"翻译"),指定清晰的输出格式(像JSON或Markdown),还需要加上一些约束条件(比如字数限制)来获得最佳效果。指令越清晰,效果越好,模糊不清的提示会让AI摸不着头脑,给出不太理想的回答。

示例:

Zero-shot提示的核心在于利用模型预训练知识直接完成任务,无需提供示例。下面是一个微博情感分析的zero-shot示例:

分析以下微博的情感倾向,判断是正面、负面还是中性,并简要说明理由:

"今天终于拿到了期待已久的新手机,拍照效果太惊艳了!虽然价格不菲,但完全值得这个价!#开箱 #新手机"

这个示例通过明确指令(分析情感倾向)、具体任务(判断微博情感)和输出约束(给出情感标签和理由)三个关键要素,让模型无需示例就能理解任务要求并给出结构化回答。

Few-Shot Prompting(少样本提示)

图:Few-Shot Prompting示例 (来源: Prompt Engineering Guide[1])

少样本提示通过提供几个"范例"让AI理解任务,就像教朋友新游戏时直接玩几轮给他看。它利用模型的上下文学习能力,只需3-5个精心设计的例子,就能让模型举一反三处理新问题。这种方法不需要重新训练模型,却能清晰传达期望,提升陌生领域表现,并确保输出格式一致。特别适合需要特定输出格式、专业领域或自定义分类系统的任务。不过它对示例质量高度敏感,容易出现"标签偏见",且示例数量有限。使用时,示例应覆盖主要变体,保持格式一致,确保区分度,对于复杂任务可结合CoT使用。

示例:

根据产品特点,为以下产品生成吸引人的广告语,长度在20-30字之间:

【示例1】
产品:一款降噪耳机
特点:主动降噪、续航30小时、舒适佩戴
广告语:静享音乐世界,30小时长续航,舒适降噪只为专注聆听。

【示例2】
产品:有机蔬菜配送服务
特点:当日采摘、无农药、配送到家
广告语:从农场到餐桌,新鲜有机蔬菜,当日采摘送到家。

【示例3】
产品:智能家居系统
特点:声控操作、远程控制、节能环保
广告语:智能声控随心所欲,远程掌控温馨家居,科技让生活更节能。

【新问题】
产品:防晒霜
特点:SPF50+、防水、清爽不油腻
广告语:

Chain-of-Thought (CoT) Prompting(思维链提示)

图:Chain-of-Thought Prompting框架 (来源: Wei et al. 2022[2])

思维链提示引导模型展示完整的推理过程,通过将复杂问题分解为连续的中间步骤利用语言模型的推理能力而非单纯记忆,并通过显式推理减少错误累积,显著提高模型在推理任务上的表现。

Chain-of-Thought Prompting 特别适合数学问题、多步逻辑推理和需要解释答案来源的任务。它通过展示逐步推理过程,显著提高了模型在复杂推理任务上的表现,是符号推理和规划问题的理想选择。值得注意的是,CoT对模型规模表现出明显的敏感性,是大型语言模型的"涌现能力"之一。然而,CoT可能产生看似合理但实际错误的推理链,对于特别复杂的问题可能需要更结构化的引导,且其效果受到底层模型推理能力的限制。

示例:

问题:一个长方形的长比宽多5厘米,周长是38厘米。求这个长方形的面积。

思考过程:
1. 设宽为x厘米,则长为x+5厘米
2. 周长公式:2×(长 + 宽) = 38
3. 代入:2×(x + x + 5) = 38
4. 简化:2×(2x + 5) = 38
5. 展开:4x + 10 = 38
6. 解方程:4x = 28 → x = 7
7. 所以宽为7厘米,长为7+5=12厘米
8. 面积计算:面积 = 长 × 宽 = 12 × 7 = 84平方厘米

验证:
周长 = 2×(12 + 7) = 2×19 = 38厘米,符合题目条件
面积 = 84平方厘米

答案:这个长方形的面积是84平方厘米

思维链方法发展出多个重要变体:零样本CoTKojima et al., 2022[3]通过简单触发短语激发推理;自洽性CoTWang et al., 2022[4]采用多路径推理和多数表决提高可靠性;自动CoTZhang et al., 2022[5]可自动生成高质量示例。有兴趣的同学可以扩展阅读。

Tree of Thoughts (ToT)(思维树)

图:Tree of Thoughts框架 (来源: Yao et al. 2023[6])

思维树框架将CoT扩展为树状结构,通过将思考过程构建为树状结构在每个决策点生成多个思考分支结合搜索算法探索解决方案空间,并利用自评估机制选择最优路径,来解决需要探索或战略前瞻的复杂问题。

ToT 特别适合需要探索多种解决方案的复杂任务,如战略游戏(国际象棋、24点等)和需要前瞻性思考的场景。它通过维护多个并行推理路径,支持回溯和前瞻性规划,结合搜索算法(如BFS、DFS、Beam Search)来探索解决方案空间。ToT的自我评估机制使其能够在复杂决策和规划问题中表现出色。然而,ToT的计算成本和实现复杂度都较高,需要有效的评估机制来指导搜索过程,且在某些情况下可能陷入局部最优解而无法找到全局最优解。

算法流程:

  1. 1. 思考:在每个节点生成多个可能的思考
  2. 2. 评估:评估每个思考的价值
  3. 3. 搜索:选择最有希望的路径继续探索
  4. 4. 迭代:重复上述过程直到解决问题

ReAct Prompting(推理+行动)

图:ReAct的"思考-行动-观察"循环迭代过程

ReAct(Reasoning+Acting)结合推理轨迹和实际行动,通过交替进行推理(Reasoning)和行动(Acting)利用外部工具获取实时信息基于观察结果调整推理路径,形成**"思考-行动-观察"闭环**,允许模型与外部工具和环境交互获取信息,形成闭环决策系统。

ReAct Prompting 特别适合需要外部知识的问答系统和多步骤决策制定,通过交替进行推理和行动,显著减少事实幻觉并支持复杂任务分解。它主要应用于四类场景:信息检索与验证(如查询实时数据、验证事实)、复杂问题求解(如数学计算、编程调试)、动态决策制定(如投资决策、旅行规划)和交互式任务处理(如智能客服、数据采集)。虽然ReAct强大灵活,但也高度依赖外部工具质量,且在某些情况下行动序列可能变得冗长低效。

示例:

任务:查找2025年最适合商务人士的笔记本电脑并说明理由。

思考:需要找出适合商务人士的笔记本电脑,应考虑性能、便携性、电池续航和商务功能。
行动:搜索[2025年商务笔记本电脑排名]
观察:搜索结果显示热门商务本有ThinkPad X1、MacBook Pro、Dell XPS和HP Elite系列。

思考:需要了解这些电脑的具体参数和商务特性。
行动:搜索[ThinkPad X1 vs MacBook Pro 商务功能对比]
观察:ThinkPad提供更多商务安全功能和接口,MacBook性能更强但接口较少,Dell平衡性能与便携,HP提供全面的企业管理解决方案。

思考:结合信息可以给出推荐了。
回答:推荐ThinkPad X1作为最佳商务笔记本,理由是:安全性能优秀(指纹识别+面部识别),接口丰富适合商务场景,军标级耐用性,以及企业级管理功能。如果更注重性能,可考虑MacBook Pro;若预算有限,Dell XPS也是不错的选择。

工具集成与应用场景:
ReAct可以集成多种外部工具以增强其能力,包括搜索引擎获取实时信息、计算器处理数学运算、专业知识库查询系统、各类API服务以及代码执行环境等。这些工具使ReAct能够处理从日常信息查询到专业领域问题的广泛任务,特别适合需要最新信息或专业知识的场景,如旅游规划、技术支持、医疗咨询和金融分析等。

Reflexion(反思)

             图:Reflexion框架的三阶段循环过程 (基于 Shinn et al. 2023[7])

Reflexion框架通过语言反馈强化模型,使用三阶段循环:行动、评估、反思,提供语言化反馈而非数值奖励记忆过去错误并形成改进策略,培养自我批评和元认知能力,使模型从错误中学习,实现自我改进的闭环系统。

系统组件:Reflexion框架由三个核心组件构成:行动者(Actor)负责执行任务,评估者(Evaluator)判断结果质量,反思器(Reflector)分析失败原因并提出改进策略,三者协同形成自我改进闭环。

场景与局限性:
Reflexion 特别适合需要从错误中学习的迭代任务,如编程问题调试和优化。它通过包含行动者、评估者和自我反思三个角色,形成完整的"行动-评估-反思"循环,能够从试错中学习并持续改进。Reflexion提供详细的语言反馈而非简单奖励,并维护反思记忆(Reflection Memory),使其在长期学习和自我改进场景中表现出色。然而,Reflexion需要高质量的评估机制,可能陷入局部最优解,且反思过程本身可能引入新的错误。此外,其计算和存储开销较大,对系统资源要求较高。

示例:

任务:编写一个计算斐波那契数列的函数

尝试1:
def fibonacci(n):
    if n <= 0:
        return 0
    elif n == 1:
        return 1
    else:
        return fibonacci(n-1) + fibonacci(n-2)

评估:函数正确但效率低下,时间复杂度为O(2^n)

反思:我的实现使用了递归方法,这在大数值情况下效率很低。我应该使用动态规划或迭代方法来优化性能。

尝试2:
def fibonacci(n):
    if n <= 0:
        return 0
    elif n == 1:
        return 1
    
    fib = [0, 1]
    for i in range(2, n+1):
        fib.append(fib[i-1] + fib[i-2])
    
    return fib[n]

评估:正确且效率提高,时间复杂度为O(n)

Graph Prompting(图提示)

图:Graph Prompting框架示例 (来源: Liu et al. 2023[8])

Graph Prompting将提示结构化为有向图,通过将提示组织为节点和边的图结构,其中每个节点代表特定子任务或推理步骤边表示任务之间的依赖关系和信息流,并支持条件分支和循环结构,允许模型按照预定义的路径进行推理和决策,实现更复杂的任务流程控制。

场景与局限性:
Graph Prompting 特别适合具有明确流程和依赖关系的复杂任务,如多步骤规划、条件决策和递归问题解决。它通过将大型任务分解为相互连接的子任务,有效降低了复杂性并提高了可控性,支持非线性推理路径和条件执行,使其在处理需要明确流程控制的任务时表现出色。Graph Prompting还支持模块化设计,便于重用和维护。然而,设计有效的图结构需要专业知识,实现复杂度较高,且在执行过程中可能出现错误累积。此外,大型图结构可能超出上下文窗口限制,需要特殊的处理机制。

示例:

实现方式:
Graph Prompting可通过多种方式实现:静态图预定义完整任务流程;动态图根据中间结果实时调整结构;嵌套图允许节点包含子图;也可与其他提示技术(如CoT、ReAct)结合形成混合方法,以适应不同复杂度的任务需求。

总结与最佳实践

提示工程是一门快速发展的学科,不同的提示技术适用于不同的场景。选择合适的提示技术应考虑任务复杂度、外部知识需求、解释性要求和可用计算资源。对于简单任务,Zero-Shot是首选;复杂推理问题适合使用CoT或ToT;需要外部知识时,ReAct表现出色;长期学习场景则应考虑Reflexion;而结构化流程任务则适合Graph Prompting。这些技术可以组合使用以应对更复杂的场景,如ReAct+Reflexion用于持续学习的交互式任务,Few-Shot+CoT提高复杂任务的示例有效性。随着模型能力的提升,建议持续关注提示工程的最新研究进展,并通过实践建立适合自己的提示库。

技术
优点
局限性
最佳适用场景
Zero-Shot
简单直接
依赖预训练知识
简单分类/生成
Few-Shot
明确任务要求
示例质量敏感
需要特定格式
CoT
展示推理过程
可能产生幻觉
复杂推理
ToT
多路径探索
计算成本高
战略决策
ReAct
结合外部知识
依赖工具质量
信息检索
Reflexion
从错误中学习
需要评估机制
长期学习
Graph Prompting
流程可控
设计复杂度高
结构化流程任务

 

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询