微信扫码
添加专属顾问
我要投稿
从精雕细琢的提示词到构建完整上下文架构,探索LLM交互方式的革命性演变。 核心内容: 1. Prompt Engineering的起源与局限性 2. Context Engineering的架构与优势 3. 两种交互方式的典型应用场景对比
“如今决定AI智能体成功或失败的关键因素,不再是模型本身,而是你提供给它的上下文质量。大多数智能体的失败,其实不再是模型的失败,而是上下文的失败。” by 宝玉
Prompt Engineering是早期在ChatGPT时代的产物,这意味着用户需要在聊天框里输入一些奇怪的内容,然后观察模型的输出效果,接着不断调整输入的提示词,直到满意为止。不过写Prompt没有统一的范式,只有一些模糊的经验可供参考,因此还诞生出很多提示词工程师的岗位。
Prompt Engineering 的本质,是一句话搞定模型:“你是一位 X 专家,请像 Z 一样完成任务 Y。”它依赖语言的表达技巧,通过优化提示的措辞、结构、语气甚至加入几个示例(few-shot)来引导模型生成想要的输出。
常见用途包括:
● 写文案(如广告 slogan、邮件模板)
● 模拟某个风格(如“像知乎大V一样发一条微博”)
● 一次性生成代码片段或小脚本
Prompt Engineering 非常像“即兴写作”或“自然语言编程”,它是 LLM 使用的起点,但也有明显的局限性。
Context Engineering,是 Prompt Engineering 的“进化版”,是LLM发展到如今智能体阶段的要求。
它不仅仅关注一句提示词,而是设计整个模型所感知到的信息——包括:
● 系统提示(System Prompt)
● 历史对话记录
● 内存模块与用户画像(Memory)
● 文档检索(RAG / Retrieval Augmented Generation)
● 工具调用(Function Calling)
● 上下文窗口管理(Token Selection)
换句话说,Prompt Engineering 是在对话中“说什么”;Context Engineering 则是在决定“模型看到什么、什么时候看到、为什么要在意”。
Context Engineering 构建的是长期对话、一致性行为和任务自动化的基础架构。
你问 ChatGPT:
你是产品经理,请用幽默风格总结“苹果 Vision Pro 的产品定位”。
这是一条经典的 Prompt Engineering,它可能一次就能给你一个风格不错的答案。
你构建一个企业内部助理,并为此设计了至少以下关键节点:
● 用户问问题前,模型自动从已有知识库中检索相似答案;
● 系统提示设定了对话风格和角色;
● 用户的过往提问会作为memory注入;
● 工具链决定模型在不确定时是否调用知识库或触发外部 API;
● 所有信息被按优先级动态注入上下文窗口。
在这个系统中,Prompt 只是一个输入,而整个上下文配置系统才是模型稳定表现的关键。
Prompt Engineering 是我们与 LLM 交互的原始技巧,但随着智能体的开发,我们需要的不再是简单的文本生成器,而是一个智能助手。因此,Context Engineering可以说是现如今所有Agent不可缺少的设计思维。
正如 Andrej Karpathy 所说: “未来的提示,不再是prompt,而是context。”
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-05-08
2025-05-08
2025-05-07
2025-05-08
2025-05-19
2025-06-27
2025-06-12
2025-06-21
2025-05-07
2025-07-03
2025-07-24
2025-07-22
2025-07-19
2025-07-08
2025-07-04
2025-06-23
2025-06-14
2025-06-04