微信扫码
添加专属顾问
我要投稿
大模型应用的新突破:上下文工程如何让AI回答更精准可靠? 核心内容: 1. 上下文工程的定义及其与提示词工程的区别 2. 上下文工程解决大模型四大核心局限性的技术原理 3. 动态构建优质上下文的关键技术路径与应用场景
“上下文工程”(Context Engineering)这个在当前(2025年)AI领域,特别是大语言模型(LLM)应用中,变得至关重要的概念。这可以说是继“提示词工程”(Prompt Engineering)之后的又一个核心技术热点。
一、上下文工程(Context Engineering)是什么含义?
上下文工程(Context Engineering)是一种系统化的方法论和技术栈,其核心目标是在与大语言模型(LLM)交互时,动态地、精准地为其构建和提供最相关、最优质的上下文(Context)信息,从而让模型能够生成更准确、更可靠、更具个性化的回答。
我们可以用一个简单的比喻来理解它和提示词工程的关系:
它的核心不再仅仅是优化那个“问题本身”(Prompt),而是工程化地管理和优化喂给模型的“信息背景”(Context)。
二、它和大型模型有什么关系?为什么它如此重要?
上下文工程之所以变得如此重要,是因为它直接解决了大型模型固有的几大核心局限性:
三、上下文工程具体例子
四、RAG 提供上下文
目前,实现上下文工程最主流、最流行的技术架构是 “检索增强生成”(Retrieval-Augmented Generation, RAG)。
一个典型的RAG流程如下:
---背景资料---
[这里是检索到的“2025年差旅报销新规”的相关段落...]
---我的问题---
我们公司最新的报销政策是什么?
---指令---
请依据以上背景资料,回答我的问题。
除了 RAG,以下是几种同样重要且正在快速发展的上下文工程典型范式。先进的AI应用通常会将它们组合使用。
五、微调 (Fine-Tuning):将知识“内化”为模型能力
如果说 RAG 是给模型一本“开卷考试”的参考书,那么微调就是提前给模型进行“考前特训”,将特定的知识和能力“内化”到模型的参数权重中。
不是在提问时提供上下文,而是在模型部署前,在一个精心准备的、特定领域的数据集上继续训练一个基础大模型(如 Llama 3, GPT-4)。这个数据集通常包含了成百上千个“高质量问答对”或范例文章。
一个结构化的、领域特定的数据集(例如,包含了公司所有产品手册的问答对、所有历史客服对话、特定风格的法律文书等)。
一家法律科技公司,希望AI助手能以专业的法律文书风格起草合同。他们可以收集数千份已有的、高质量的合同作为数据集,对一个基础大模型进行微调。微调后,你只需给模型一个简单的指令“起草一份软件授权协议”,它就能自动生成结构、术语、风格都非常专业的文本,而不需要在提示词里提供大量的合同范本作为上下文。
微调和RAG是互补的。微调教会模型“如何思考和说话”,RAG则在运行时为其提供“最新的事实依据”。
六、智能体与工具调用 (Agent & Tool-Using):将世界作为“动态上下文”
这是目前最前沿、最强大的范式之一。它不再将上下文视为静态的文本信息,而是将整个外部世界(通过API、数据库等)作为可以实时交互和获取的动态上下文。
将LLM打造成一个有“大脑”的智能体(Agent),并为其配备一个“工具箱”(Toolkit)。当面对一个复杂任务时,智能体会自主地思考、规划,并决定调用哪个工具来获取所需信息,然后将工具返回的结果作为下一步思考的上下文。这个过程通常遵循 ReAct (Reason + Act) 框架。
API的实时返回结果、数据库的查询结果、代码执行器的输出、甚至其他AI模型的分析结果。
场景: 用户说:“帮我规划一次从深圳到北京的周末旅行,预算5000元,要订往返机票和一家评分4.5以上的酒店。”
智能体的执行流程:
RAG可以被看作是智能体拥有的一个“专用工具”,即 retrieve_from_knowledge_base()。智能体范式是RAG的超集,它将上下文的来源从静态知识库扩展到了无限的、可交互的外部服务。
七、上下文窗口管理与压缩 (Context Window Management & Compression)
这种范式专注于如何在一个有限的上下文窗口内,最高效地管理和呈现信息,尤其是在长程对话(Long Conversation)中。
对话本身就是最重要的上下文。随着对话轮次增加,如何保留关键信息,同时丢弃不重要的信息,以避免上下文窗口溢出或关键信息被“冲淡”。
历史对话记录。
一个心理咨询AI助手,在进行了长达一个小时的对话后,需要记住用户在对话早期提到的一个关键童年经历。通过对话摘要技术,系统能将这个关键信息持续保留在“工作记忆”(即上下文)中,从而在后续对话中进行引用和共情。
八、总结对比
范式 (Paradigm) |
核心思想 |
上下文来源 |
优点 |
缺点 |
RAG (检索增强生成) |
外部知识检索,开卷考试 |
向量数据库、知识库 |
事实性强、知识可更新、成本较低 |
依赖检索质量、有一定延迟 |
Fine-Tuning (微调) |
内部知识内化,考前特训 |
领域特定数据集 |
风格/语调/格式控制好、推理能力强 |
知识静态、成本高、可能遗忘通用能力 |
Agents & Tools (智能体与工具) |
实时交互,动态获取 |
APIs、数据库、代码执行器 |
实时、可操作、能解决复杂任务 |
系统复杂、有安全风险、依赖工具可靠性 |
Context Management (上下文管理) |
优化长程记忆 |
历史对话记录 |
保持对话连贯性、理解深层意图 |
增加计算开销、可能丢失细节 |
在实践中,最先进的AI应用(如 Palantir AIP、Databricks Mosaic AI Agent Framework 等)往往会融合以上所有范式,构建出一个能够根据任务需求,灵活地检索静态知识、调用实时工具、并保持长程对话记忆的复杂系统。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-07
刚刚,Karpathy 又造新词 :"细菌式编程"诞生记,兼论上下文工程演进史
2025-07-07
基于AI(LLM)和Playwright MCP(模型上下文协议)的测试自动化
2025-07-07
AI Agent 凭什么火?看懂 60 年软件演进史,你就明白了
2025-07-07
用子模优化法为DeepResearch生成多样性查询
2025-07-07
字节推出 Claude Code 和 Gemini CLI 替代品(我测试了)
2025-07-07
为什么我觉得AGI并不会马上到来
2025-07-07
当微信支付开放MCP之后,我却有一点后怕。
2025-07-07
几个故事,理解AI Agent规划的不同实现方式
2025-05-29
2025-04-11
2025-04-12
2025-04-29
2025-04-12
2025-04-29
2025-05-23
2025-05-07
2025-05-07
2025-05-07