支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Prompt到底是如何工作的?看懂这3个底层原理,你也能成为提示词高手

发布日期:2025-06-04 05:57:09 浏览次数: 1569 作者:画伞的AI学习笔记
推荐语

掌握Prompt技巧,让AI精准响应你的指令。
核心内容:
1. Prompt通过重塑概率分布引导AI输出
2. 约束生成路径,规划AI的思考路线
3. 激活特定知识模块,提升AI的准确性

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

最近有朋友问我:"为什么你写的Prompt总能让AI给出精准的答案,而我的却经常跑偏?"

说实话,这个问题我之前也困扰了很久。

直到深入研究了大模型的工作原理后,我才恍然大悟——原来Prompt的本质,是通过重塑概率分布约束生成路径激活特定知识模块来引导模型输出的。


听起来很玄乎?

别急,让我们从一个简单的例子说起。


从"猜词游戏"理解大模型

你玩过接龙游戏吗?

就是一个人说"春天",下一个人可能接"花开",也可能接"来了"。


大模型的工作原理其实跟这个很像,只不过它是在玩一个超级复杂的"猜下一个词"游戏。

想象一下,AI读过了互联网上几乎所有的文本(GPT-3的训练数据有45TB,过滤后还有570GB),它从中学会了语言的各种规律。比如看到"今天天气",它知道后面大概率会跟"真好"、"不错"或者"很糟"这样的词。

但这里有个关键点——AI并不是死记硬背,而是通过概率来"猜测"。就像你看到"床前明月",脑子里自动蹦出"光"一样,这是因为你见过太多次这个组合,概率已经深深印在脑海里了。


而AI在训练时用的是Transformer架构(就是那个让ChatGPT变得这么聪明的技术),它最厉害的地方是能同时关注整个句子的上下文,而不是只看前面几个词

这就像你在理解一句话时,会综合考虑整个语境,而不是只盯着某个词看。


Prompt如何"操控"AI的大脑

好了,现在我们知道AI是通过概率来生成文本的。那Prompt是怎么影响这个过程的呢?

重塑概率分布——给AI戴上"有色眼镜"

当你输入"写一句话描述猫",AI可能会输出"猫是可爱的宠物"这种平淡无奇的句子。但如果你改成"写一句诗意的话描述猫",神奇的事情发生了——AI会输出"夜色中悄然行走的精灵"这样的句子。

为什么会这样?

因为"诗意"这个词改变了AI的概率分布。

原本"宠物"、"动物"这些词的概率很高,但加了"诗意"后,"精灵"、"月光"、"优雅"这些词的概率突然飙升。

就像给AI戴上了一副"诗意滤镜"。


我做过一个实验,同样是生成产品描述:

  • 普通Prompt:"描述这款耳机" → "这是一款无线蓝牙耳机,音质清晰"
  • 优化Prompt:"作为音频发烧友,描述这款耳机的音质体验" → "低频下潜深邃,中频人声温润,高频延展自然,仿佛置身音乐厅"

看到区别了吗?

角色设定直接改变了AI的"思考方式"。


约束生成路径——给AI画地图

有时候,只改变概率还不够,我们需要给AI规划具体的路线。

这就像导航软件,你不仅要告诉它目的地,还要选择是走高速还是走国道。


举个例子,我之前让AI解一道数学题,直接问答案,它经常出错。

后来我改成:"请分步骤解答这道数学题,每一步都要说明理由",准确率立马提升了。

为什么?

因为"分步骤"这个指令强制AI按顺序激活推理模块,就像强制它走楼梯而不是跳楼。

每走一步,都要停下来思考,这样就避免了逻辑跳跃导致的错误。


激活特定知识模块——唤醒AI的"专业人格"

这部分非常有意思。

AI的千亿参数其实构成了一个分布式的知识网络,不同的知识存储在不同的"区域"。

当你说"作为资深Python工程师"时,AI会优先激活与Python相关的参数簇。

这时候,医疗知识、法律条文这些不相关的内容就被"关闭"了,不会干扰输出。


测试:

  • 问:"如何处理数据?" → 回答很宽泛,可能涉及Excel、数据库等
  • 问:"作为Pandas专家,如何处理数据?" → 直接给出DataFrame操作代码

这种定向激活的效果非常明显。


如何写出"有魔力"的Prompt

理解了原理,写好Prompt就有章可循了。这里分享几个我总结的实用技巧:


技巧1:降低信息熵,别让AI"选择困难"

什么是信息熵?简单说就是不确定性。你的Prompt越模糊,AI的选择就越多,输出就越不可控。

对比一下:

  • ❌ "写个排序算法" → AI不知道你要冒泡排序还是快速排序
  • ✅ "用Python实现快速排序,处理浮点数列表,加上时间复杂度注释" → AI精准输出

我的经验是,与其写一个宽泛的需求,不如把细节都说清楚。这样信息熵降低了,输出的确定性就提高了。


技巧2:结构化思维,给AI一个清晰的框架

我特别喜欢用XML标签来组织Prompt,比如:

<角色>资深内容运营</角色>
<任务>优化这段文案</任务>
<要求>
增加情感共鸣
保持原意不变
字数控制在100字内
</要求>
<原文>...</原文>

这种结构化的方式就像给AI一个表格,它知道该往哪里填什么内容。实测下来,错误率能降低30%以上。


技巧3:用例子引路,让AI"照葫芦画瓢"

有时候,与其费劲解释,不如直接给个例子。AI特别擅长模式识别,看到例子就知道你要什么了。

比如我要生成JSON数据:

<query>
请生成JSON格式的天气报告,包含字段:城市、温度、湿度、风速
示例:{"city": "北京", "temp": 22, "humidity": 45%, "wind": "3m/s"}
</query>

有了这个例子,AI就不会搞错字段名,也不会乱加其他属性。


技巧4:负面约束,告诉AI"不要做什么"

这个技巧很多人忽略,但效果特别好。有时候告诉AI不要做什么,比告诉它要做什么更有效。

比如:

  • "解释量子力学,不要使用专业术语"
  • "写一篇产品介绍,不要使用夸张的营销词汇"

负面约束能直接抑制某些词汇的概率,让输出更符合你的预期。


日常如何提升Prompt能力

说了这么多技巧,那平时该怎么练习呢?


建立自己的Prompt库

用Notion建了一个Prompt库,按场景分类:技术开发、内容创作、数据分析等。

每次写出效果好的Prompt,就存进去,还会记录为什么有效。

时间长了,你会发现一些规律。

比如技术类Prompt一定要指定版本号(React 18而不是React),内容类Prompt要明确风格(幽默、严肃、学术等)。


A/B测试思维

同一个需求,试试不同的Prompt写法,对比效果。我经常这样做:

  • 版本A:直接描述需求
  • 版本B:加上角色设定
  • 版本C:加上输出格式要求
  • 版本D:加上示例

通过对比,你能清楚地看到每个要素的作用。这种实验精神很重要。


学点技术知识(但不是必须的)

懂一些编程语言有助于写好提示词。

世界上有两种精准、无歧义的语言,一种是数学语言,一种是编程语言。


如果你懂JSON格式,就能精确地要求AI输出结构化数据。

你了解不同编程语言的特点,就能在让AI写代码时给出更准确的指令。

但要,这只适用于需要精准要求的场景。

写诗歌、写文案这些场景,技术知识反而没那么重要,语言表达能力才是关键。


写在最后

回到开头朋友的问题——为什么有些Prompt就是比别人好用?

现在答案很清楚了:好的Prompt之所以有效,是因为它精准地控制了AI的概率分布,规划了清晰的生成路径,激活了正确的知识模块

说白了,就是你对问题理解得越透彻,写出的Prompt就越精准,AI的输出就越符合预期。


好的提示词(Prompt)本质上是人机之间的精准翻译器,它将人类模糊的意图转化为AI可执行的指令。

掌握了它的工作原理,你就掌握了与AI高效沟通的密码。从某种意义上说,Prompt工程师就像是AI时代的"翻译官",把人类的需求翻译成AI能理解的语言。


最后送大家一个公式:

优质Prompt = 明确意图 × 结构化表达 × 领域知识 × 持续迭代


一个通用性强的结构化Prompt框架:

# RTF (Role-Task-Format)
- Role(角色)
- Task(任务)
- Format(格式)

## 示例
- Role:你是一位经验丰富的营销专家  
- Task:为一款新推出的环保型智能水杯撰写一篇引人注目的社交媒体帖子。  
- Format:一段包含表情符号的短文本,字数在 100 字以内,重点突出产品的环保特性和智能功能,并鼓励用户了解更多。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询