支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


【Agent专题】上下文工程:Context Engineering爆火!唤醒大模型“心智”,AI智能体落地的关键武器来了

发布日期:2025-07-10 09:27:57 浏览次数: 1557
作者:AI技术研习社

微信搜一搜,关注“AI技术研习社”

推荐语

上下文工程正成为AI智能体落地的关键突破点,前特斯拉AI总监Andrej Karpathy揭示如何通过控制"心智世界"来驾驭大模型。

核心内容:
1. 上下文工程的定义与核心价值:构建AI智能体的"认知宇宙"
2. 四大实战策略详解:写/选/压缩/隔离上下文的高效方法
3. 典型应用场景:多轮推理、工具协同与长期任务执行

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

随着大语言模型(LLM)能力的不断跃升,AI 智能体正在从纯对话系统迈向更复杂的多轮推理、多工具协同与长期任务执行。

而支撑这一演化的“幕后主角”,正是一个技术门槛日益提升的新领域:上下文工程(Context Engineering)。继 Vibe Coding(氛围编程)火了之后,AI圈又迎来一股新的技术热潮。

这一次,是由前特斯拉 AI 总监、深度学习布道者 Andrej Karpathy 亲自点燃的火。他在一次演讲中强调:“如果你想真正掌控一个大语言模型的行为,不是去微调权重,而是掌控它的‘心智世界’——你提供给它的上下文。”

在构建 AI 智能体的过程中,“上下文”不仅仅是几个提示词的组合,更是构成其“认知宇宙”的核心素材。它包含模型当前能“看到”的信息(如任务指令、外部知识、历史轨迹),也决定了模型“如何看到”(结构化与否)、“何时看到”(静态注入或动态更新)。

正如 Andrej Karpathy 所说:“LLM 是新的计算平台,模型本体就像 CPU,而上下文窗口就像 RAM。你无法重新训练模型每次适配具体任务,但你可以用上下文工程去控制它‘思考的材料’。”

于是,一个全新的工程范式被推上风口浪尖:Context Engineering(上下文工程)

上下文工程是一门集艺术与科学于一体的学问,目标是高效填充 LLM 的上下文窗口,使其在每一步任务执行中都拥有“刚刚好”的信息量。它不仅涉及信息的选择、组织与注入方式,还关注上下文的动态性、可扩展性与准确性。

具体而言,构建 AI 智能体过程中所涉及的上下文类型包括:

  • 指令:提示词、少样本示例、工具描述、系统角色设定等;

  • 知识:结构化事实、外部知识库(通过RAG注入)或语义记忆;

  • 工具反馈:函数调用、API 返回值、插件响应等多模态中间结果;

  • 历史轨迹:对话上下文、用户输入记录、策略路径等。

由于 LLM 的上下文窗口资源有限(即使扩展至百万 tokens 也依旧存在边界),不加选择地注入上下文将导致成本上升、响应延迟、性能退化甚至幻觉增强。因此,对上下文的管理与设计,必须借助系统化策略。

四大上下文工程策略详解:写、选、压缩、隔离。

1. 写上下文(Write Context)

写上下文是指将关键任务信息保存在上下文窗口之外,但又可被模型间接利用的手段,类似人类“写便签”、“做笔记”的行为。

  • 便签(Scratchpads):Anthropic 提出的研究显示,AI 智能体通过工具调用或状态字段记录计划信息,可帮助其在任务过程中持久化策略、参数或状态。例如,研究人员将超过 20 万 tokens 的长任务拆解为阶段性步骤,并通过便签记录每一阶段决策,从而避免窗口溢出。

  • 记忆(Memory):指 AI 智能体自动从多轮历史对话中提取高价值事实(语义记忆)、行为流程(程序记忆)、案例轨迹(情景记忆)并长期保留。这一机制已被 ChatGPT、Cursor、Windsurf 等集成,用于实现“个性化响应”。如 ChatGPT 能记住用户的写作风格和工作场景,并在未来会话中主动融合。

2. 选上下文(Select Context)

选上下文是将最相关的信息拉入当前上下文窗口。它是上下文工程中最典型的动态部分,涵盖便签、记忆、工具与知识四种维度:

  • 记忆选择:如 Claude Code 使用 CLAUDE.md 文件、Cursor 使用 config rules,用于提供始终注入的规则性知识。对于海量语义记忆,ChatGPT 结合知识图谱与向量索引过滤调用内容,但仍存在“意外注入”问题(如 Simon Willison 遭遇 AI 自动泄露位置信息)。

  • 工具选择:大模型面对多种工具时,可能会因描述相似产生混淆。RAG-MCP 架构通过将工具说明索引入库,仅检索任务相关的工具描述,实验证明工具选择准确率提高 3 倍。

  • 知识选择(RAG):以 Windsurf 为例,其代码 RAG 架构并非简单做文本嵌入,而是结合 AST 分块、语义重排、多源索引等手段,在千万行代码中快速定位任务相关逻辑模块,从而大幅提升智能体响应的专业度。

3. 压缩上下文(Compress Context)

压缩上下文用于精简冗余 tokens,通过“摘要”和“修剪”两类方式实现:

  • 上下文摘要(Summarization):Claude Code 在上下文窗口使用率达到 95% 后会自动对对话轨迹进行总结,再替代注入。这种方式可以采用递归摘要、层次摘要等策略,也可以训练微调模型用于关键事件提取。

  • 上下文修剪(Trimming):使用规则剔除老旧、无效或冲突上下文。例如清除最早回合信息、剔除中间无关路径等。这种策略操作简便,在工具调用频繁或成本敏感场景中尤为常用。

4. 隔离上下文(Isolate Context)

隔离上下文是将任务上下文拆分为多个“独立空间”,实现多 Agent 协作、环境分区或状态模块化:

  • 多智能体架构(Multi-Agent):如 OpenAI Swarm 和 Anthropic 多智能体团队研究,每个子 Agent 管理自己的上下文、工具与指令,适用于分布式复杂任务。实验显示,相较单体 Agent,这种模式响应准确率显著提高,尽管 token 使用量高达单 Agent 的 15 倍。

  • 环境隔离(Environment Isolation):Hugging Face CodeAgent 架构将代码工具执行放入沙箱环境,工具调用参数与返回值在沙箱中完成状态隔离,仅返回结果注入 LLM,从而防止上下文污染。

  • 运行时状态对象(State Object):以 LangGraph 为例,系统状态由结构化字段组成。开发者可精确控制哪些字段在每步注入模型,哪些信息保持隔离,仅在特定回合暴露,从而实现“动态上下文管理”。


上下文工程已逐步成为 AI 智能体设计的核心工程分支。无论是 Anthropic 的研究,OpenAI 的产品落地,还是 LangChain/LangGraph 等开发框架的演进,都在强调一个趋势:

上下文,不只是提示词,它是智能体的“工作内存”、“知识总线”与“行为约束”。

未来,随着工具生态扩张、多模态输入爆发与任务持续增长,AI 智能体的上下文管理将走向更自动化、更智能、更语义化。

Context Engineering 将从人工手工选择,进化为“智能上下文调度器”,成为每一个 AI 开发者的核心能力之一。

参考原文:https://blog.langchain.com/context-engineering-for-agents/

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询