免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

一文看懂AI智能体系统背后的重要技术——上下文工程(Context Engineering)

发布日期:2025-12-04 21:11:04 浏览次数: 1522
作者:熊猫AI自习室

微信搜一搜,关注“熊猫AI自习室”

推荐语

探索AI智能体如何通过上下文工程突破大模型局限,实现从"思考"到"行动"的闭环。

核心内容:
1. 智能体系统与普通大模型的本质区别:从"只说不做"到"既说又做"
2. 上下文工程如何解决传统提示工程的局限性
3. 从基础原理到未来趋势的完整技术发展脉络

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

Hello,我是功夫熊猫,长期从事AI算法研究、AI工程系统和AI应用软件研发工作,我很热爱我的工作。

欢迎你关注熊猫AI自习室,一个只写AI干货的公众号。

智能体(Agent是一种能够感知环境、制定决策并采取行动以实现特定目标的AI系统,具有意图理解、长短期记忆、决策规划、采取行动、工具调用等基本能力

简单来说,智能体通过工具调用将大语言模型的“思考”能力与外部系统、工具、API的“行动”能力结合,实现从需求理解到任务执行的闭环。这一机制使智能体能突破自身知识局限,为用户提供更多复杂的智能服务。

智能体系统与大模型的区别是:一般情况下,大模型只说不做,而智能体系统不只说,还会做,可以帮助用户完成更加复杂的任务

本文旨在对AI智能体系统的上下文工程进行一次全面深入的分析。从上下文工程技术的起源、基本概念、核心原理、关键突破、未来趋势等多个维度,系统性地梳理其发展脉络,让大家能够对智能体系统中的上下文工程有一个较为清晰的认识。

用大白话说,这篇文章就是讲述智能体系统中的上下文工程是个啥?由什么组成的?应该怎么做?未来会怎么发展?

提示词工程的兴起与核心挑战

在大语言模型应用开发的早期阶段,提示工程是开发者社区关注的焦点。它被视为一门“提问的艺术”,核心在于通过精心设计和组织输入文本(即提示词),来引导LLM生成最符合预期的输出 。这种方法在相对简单和可控的任务中,如单轮问答、文本摘要任务,取得了不错的效果。开发者们通过大量的实验,总结出了许多行之有效的提示技巧,例如角色扮演(“你是一个专业的翻译官”)、思维链(Chain-of-Thought)引导以及提供少样本示例(few-shot方法)等。这些技巧的本质,是通过优化输入端的指令,来激活模型内部在预训练阶段学到的特定知识或推理模式。

然而,随着LLM应用场景的深化,提示工程的局限性也日益凸显。其核心挑战在于,它过度依赖于一个静态的、一次性的输入,而忽略了模型在动态交互过程中对持续、丰富信息的需求 

在一个有限的测试环境中,一个精心设计的提示或许能获得不错的结果,但在复杂的真实世界部署中,同样的提示可能会因为模型缺乏必要的背景信息(如相关数据、对话历史或实时状态)而彻底失败。

例如,一个智能客服机器人,如果仅仅依赖用户当前的一句话来生成回复,而不知道用户之前的订单历史、账户状态或之前的沟通记录,其回答很可能是不相关甚至错误的。这种 “一次性”的交互模式,使得提示工程难以支撑起需要多轮推理、长期记忆和与外部环境交互的复杂AI智能体应用。因此,我们开始意识到,仅仅优化“如何提问”是远远不够的,更关键的是要解决“如何让AI拥有回答问题的正确知识和环境”这一更深层次的问题。

AI应用需求从单轮对话向多轮推理的智能体应用的转变,是推动上下文工程兴起的最直接动力。早期的LLM应用大多是“一问一答”的单轮交互模式,用户的每一个请求都是独立的,模型无需考虑之前的对话历史。在这种模式下,提示工程通过优化单次输入,足以引导模型完成大多数任务。

然而,随着AI智能体的出现,应用场景变得愈发复杂。一个智能体不再是简单地响应指令,而是需要在一个持续的环境中,通过多轮次的 “思考-行动-观察”循环来完成复杂的任务 。

例如,一个电商领域的AI智能体可能需要执行以下流程:1) 理解用户的退款请求;2) 查询订单数据库验证订单详情;3) 检查库存系统确认商品状态;4) 调用支付接口处理退款;5) 更新用户记录;6) 发送通知邮件 。

在这个多步骤的推理过程中,每一步的决策都依赖于前一步的结果和整个任务的上下文。如果在第一步就出现了上下文理解错误,这个错误将会像多米诺骨牌一样,在后续的步骤中逐级放大,最终导致整个任务的失败 。这种 “级联失效”模式在自主系统中是可怕的,因为它不仅会产生错误的答案,更可能引发错误的现实世界行动,造成资源浪费甚至商业损失。

因此,AI智能体系统必须具备在多轮交互中有效管理和利用上下文的能力。这包括记住之前的对话内容、整合来自不同工具或数据源的新信息、并根据累积的知识动态调整后续的行动策略。

这种从静态、单轮交互到动态、多轮推理的需求转变,使得上下文管理从一个可选项变成了必需品,也标志着AI工程的核心工作从“提示工程”正式转向了“上下文工程” 。

上下文工程的诞生

随着大语言模型技术的飞速发展,AI智能体正从概念走向现实应用。然而,在它们展现出能力的同时,一个根本性的瓶颈也逐渐显现:AI与人类之间存在着一道深刻的“理解力鸿沟” 。这种鸿沟并非源于模型处理能力的不足,而是源于其认知模式的根本差异。

首先,AI的 “感官”是不完整的。人类在交流时,会无意识地接收并处理大量非文本信息,如环境氛围、对方的肢体语言和语调变化,这些信息共同构成了丰富的上下文。而当前绝大多数AI系统,尤其是单模态的大语言模型,其感知范围被严格限制在用户输入的文本中,无法主动捕捉和理解这些高熵的隐含信息,导致其“感知视野”极为狭窄 。

其次,即便能够获取所有信息,AI的 “理解能力”也存在局限性。人类大脑擅长整合多源信息,理解复杂逻辑和事物间的隐性关联。相比之下,AI大模型,特别是基于Transformer架构的模型,在处理长距离依赖和复杂关系信息时依然面临性能瓶颈,难以像人类一样进行深度整合与推理 。

第三,也是最关键的一点,是AI “记忆的缺失” 。Transformer架构虽然强大,但其上下文窗口的长度是有限的,这导致模型缺乏一个长期、稳定的记忆系统。它无法像人类一样,通过共享的过去对话和经验来建立稳固的背景共识,每一次交互都仿佛是一次“初见”,无法形成连贯的认知积累 。

最后,AI的 “注意力”是分散且低效的。即便通过检索增强生成(RAG)等技术为其配备了外部记忆库,当面对海量信息时,AI也常常表现出“上下文选择困难症”,不知道应该将注意力聚焦于何处,导致关键信息被淹没在噪声中 。这些固有的缺陷共同导致了AI在复杂、多轮、需要深度理解的交互场景中表现不佳,也催生了上下文工程的诞生。

上下文工程的诞生,标志着AI应用开发范式的转变。早期的LLM应用大多聚焦于一次性的文本生成任务,提示工程足以应对。但随着AI智能体的出现,它们需要在多轮推理和更长的时间尺度上自主运行,这要求系统能够动态管理包括系统指令、工具描述、外部数据、对话历史在内的整个上下文状态。

一个智能体在循环中运行会产生大量可能相关的数据,而上下文工程的技术就在于,如何从这个不断演变的信息宇宙中,为有限的上下文窗口筛选出最关键、最有价值的内容 。它不再是一个孤立的技巧,而是一个贯穿AI系统生命周期的工程学科,涵盖了从信息收集、管理到使用的完整闭环,旨在为AI提供一个稳定、可靠且持续进化的“行动指南”,从而解锁其在复杂现实世界任务中的真正潜力 。

上下文工程技术的简要介绍

根据AI领域领先公司Anthropic的描述,上下文工程可以被定义为 “一套用于策划和维护在大语言模型推理过程中的最优信息(token)集合的策略”。

这里的“上下文”指的是在模型进行内容生成时,输入给模型的全部token集合,它不仅包括用户直接输入的提示词,还涵盖了系统指令、工具描述、外部检索到的数据、历史对话记录等所有可能影响模型输出的信息 。而“工程”则强调了这是一个系统性、有目的性的优化过程,其核心目标是在LLM固有的上下文窗口限制下,最大化这些token的效用,从而稳定、可靠地达成预期的行为结果 。

简而言之,上下文工程的本质是构建一个动态的信息管道,它能够根据当前任务的需求,自动地从庞大的外部知识库、实时数据源和历史交互记录中,筛选、组装并注入最相关的信息到LLM的上下文窗口中。

与侧重于“如何提问”的提示工程不同,上下文工程更关注 “提供哪些重要信息”以及“如何提供重要信息”。它要求开发者从更宏观的视角来思考,即“什么样的上下文配置最有可能引导模型产生期望的行为” 。这涉及到一系列复杂的技术决策,例如如何设计高效的信息检索策略、如何对检索到的信息进行排序和压缩、如何管理长短期记忆、以及如何协调多个信息源、如何对大量的工具或者MCP服务进行筛选等。

因此,上下文工程不仅仅是一门技术,更是一种系统设计的思维方式,它将AI应用的开发从单纯的模型调用,提升到了构建复杂信息系统的层面。

上下文工程的核心理念,是要为通用的大语言模型注入高度专业化和情境化的信息,将其从一个“万事通”转变为一个在特定领域内可靠、高效的“专家” 。一个未经专门上下文配置的通用LLM,虽然知识广博,但在处理特定领域的复杂问题时,往往会因为缺乏深度和精确性而产生“幻觉”、参数提取失败、工具判断错误或给出不切实际的答案。

上下文工程的目标就是通过构建一个精心设计的“认知工程框架”,来弥补这一差距。这个框架为AI提供了执行任务所需的一切背景知识、规则约束和实时数据,使其能够在一个明确、清晰的边界内进行推理和决策。

这个理念的实现,依赖于对上下文的精细化管理和动态组装。例如,在构建一个医疗智能诊断辅助系统时,上下文工程不仅仅是让AI读取医学教科书。它更涉及到:

1) 知识库构建:将权威的医学文献、临床指南、药物说明书等结构化或非结构化数据,构建成一个可供高效检索的知识库。

2) 动态检索:当接收到患者的症状描述时,系统能够根据关键词、语义向量、全文检索等方式,从知识库中精准地检索出最相关的疾病信息、诊断标准和鉴别诊断要点。

3) 上下文组装:将检索到的信息、患者的病历数据、以及预设的诊疗规范有机地组织起来,构成一个完整、有序的上下文,输入给LLM。

4) 持续优化:根据模型的输出结果和医生的反馈,不断调整检索策略和上下文组装逻辑,提升系统的准确性和可靠性。通过这一系列操作,上下文工程将通用的AI模型“锚定”在了一个专业的知识领域内,使其输出不仅更加准确,而且更符合行业规范和最佳实践,从而真正成为人类专家值得信赖的助手 。

检索增强生成(RAG)系统的出现

上下文工程的雏形,可以追溯到检索增强生成(Retrieval-Augmented Generation, RAG)系统的出现。在LLM的上下文窗口还相对较小、且模型内部知识更新滞后的时期,如何让模型回答关于最新信息或特定领域私有知识的问题,是一个巨大的挑战。

RAG系统为此提供了一个优雅的解决方案,其基本思想是,在生成答案之前,先通过一个检索器从一个外部知识库(如文档集合、数据库)中,找到与用户问题最相关的信息片段,然后将这些片段作为上下文,连同用户问题一起输入给LLM,由LLM基于这些提供的上下文来生成最终答案

RAG的出现,标志着AI应用开发从单纯依赖模型内部知识,转向了 “模型+外部知识库”的混合模式,这可以被看作是上下文工程的1.0版本。它首次系统性地解决了“如何为模型提供它不知道的信息”这一核心问题。早期的RAG系统主要关注于检索的准确性,即如何找到最相关的文档块。开发者们投入大量精力优化文本切分策略、向量嵌入模型和相似度搜索算法。

然而,随着应用的深入,人们发现仅仅“找到”信息是不够的,如何“呈现”这些信息同样至关重要。这就催生了对上下文进行更精细管理的需求,例如,如何处理检索到的多个信息片段之间的冲突?如何对它们进行排序以突出重点?如何压缩过长的上下文以适应模型的窗口限制?这些问题推动了RAG系统向更复杂的上下文工程范式演进,为后续智能体时代的到来奠定了基础。

上下文工程都包括什么?

随着AI智能体(Agent)的落地,上下文工程的发展进入了一个全新的阶段,其核心从静态的信息检索,演变为动态的上下文管理。在RAG系统中,上下文管理是一次性的:针对用户的单次提问,检索一次信息,构建一次上下文。但在一个能够自主行动的AI智能体中,上下文是持续演变和流动的。

一个智能体可能需要执行一个包含多个步骤的复杂任务,每一步的行动都依赖于前一步的结果和不断累积的“经验” 。这就要求上下文工程系统必须具备动态、持续地管理上下文的能力。

这个发展阶段的特点是,上下文不再仅仅是外部知识的堆砌,而是包含了更多维度的信息。一个智能体系统中的上下文通常包括以下几种类型 :

1.  指令(Instructions):系统提示、行为规则、少样本示例、工具的描述和使用方法。

2.  知识(Knowledge):从外部知识库检索到的领域事实、语义记忆、以及智能体在运行过程中产生的中间结果。

3.  工具(Tools)外部API、函数或系统的描述,允许智能体主动与外部环境交互,执行操作(如搜索、计算、发送邮件)并获取新信息。

4.  工具反馈(Tool Feedback):智能体调用外部工具(如API、数据库)后得到的返回结果,以及系统内部的运行信息。

为了有效管理这些动态且多维度的上下文,一系列更高级的策略应运而生。这包括如下内容:

  1. 上下文选择:智能体需要具备判断在特定时刻哪些信息最相关的能力,通过RAG、相似度搜索或过滤器,动态地检索所需的数据、指令或工具,而不是将所有信息一次性塞入上下文窗口 。

  2. 上下文压缩:为了应对有限的上下文窗口,系统需要能够对历史消息或工具输出进行摘要或修剪,以防止token数量膨胀 。

  3. 上下文隔离:在多智能体系统中,为了避免不同智能体之间的信息冲突和干扰,需要为每个智能体提供独立的、有作用域限制的上下文窗口 。

  4. 上下文写入:将重要的信息(如任务状态、决策历史)持久化地存储到外部记忆(如数据库、文件)中,以便智能体在后续步骤或未来的会话中能够引用 。


这一系列从“检索”到“管理”的演进,标志着上下文工程已经成为构建复杂AI智能体系统的核心内容,它使得AI能够在一个更接近人类工作记忆的框架内进行复杂的、多步骤的推理和行动。

上图详细说明了为弥补大模型的感知有限、理解局限、记忆确实、注意力涣散等缺陷而必须搭建的庞大脚手架系统——上下文工程系统,图片来源于上海交通大学和GAIR实验室发表的论文《Context Engineering 2.0: The Context of Context Engineering,由腾讯科技的博阳进行了图片的翻译。文章请见:https://arxiv.org/pdf/2510.26493。

上下文工程技术的演进与突破

上下文工程作为一个系统性的学科,其技术实现依赖于几个相互关联的基础组件。这些组件共同构成了一个动态的信息处理流水线,旨在为大语言模型提供最优的决策环境。这些基础组件可以被划分为三个核心环节:上下文检索与生成、上下文处理以及上下文管理 。

这三个环节环环相扣,共同解决了“从哪里获取信息”、“如何处理信息”以及“如何有效利用信息”这三个根本性问题。

1、上下文检索与生成

上下文检索与生成是上下文工程的起点,其核心任务是根据当前的任务需求,从各种可能的信息源中动态地获取或生成相关的上下文信息。这个过程远不止是简单的关键词搜索。

在复杂的智能体系统中,信息源可能是多样化的,包括结构化的数据库、非结构化的文档集合、API的实时返回数据甚至是其他智能体的输出。因此,上下文检索需要采用更加智能和灵活的策略。例如,在需要回答一个复杂问题时,系统可能需要执行多跳推理 ,即先通过一次检索找到初步线索,再根据这些线索进行第二次、第三次检索,逐步拼凑出完整的答案 。

此外,上下文的“生成”也扮演着重要角色。这不仅仅指LLM生成文本,更包括将不同来源、不同格式的信息进行整合、转换和抽取摘要,使其更适合作为LLM的输入。例如,当检索到多个相关的文档片段时,系统可能需要对这些片段进行去重、排序并生成一个简洁的摘要,以突出核心信息并节省宝贵的上下文窗口空间。

在一些高级应用中,系统甚至会根据任务需求,主动生成一些“伪文档”或“假设性知识”,以引导LLM进行更有效的推理。这种动态组装信息的能力,是上下文工程区别于静态提示工程的关键所在,它使得AI系统能够根据实时情况,灵活地构建其“认知基础”。

2、上下文处理

上下文处理是上下文工程的核心技术环节,它主要解决的是如何将检索到的庞大和复杂的信息,有效地输入到LLM中。这个环节面临着两大核心挑战:长序列处理和复杂数据结构的处理首先是长序列问题,尽管现代LLM的上下文窗口已经从最初的数千token扩展到数十万甚至上百万token,但处理超长序列仍然面临着巨大的计算和内存开销,并且模型在超长序列中捕捉关键信息的能力(即“大海捞针”问题)也存在瓶颈 。因此,上下文处理需要采用各种技术来优化长序列的利用效率。

其次是复杂数据的处理。现实世界的信息并非都是文本模态的,在复杂的应用场景中,上下文可能包含图结构(如知识图谱)、表格、代码、多模态数据(如图像、视频)等。如何将这些非结构化和半结构化的数据,转换成LLM能够有效理解和利用的格式,是一个巨大的挑战。例如,在处理一个代码库时,仅仅提供代码文件的内容是不够的,还需要让模型理解代码之间的依赖关系、调用关系等图状结构 。

同样,在处理一个涉及多步推理的科学问题时,将问题分解成一个逻辑链条(如思维链,Chain-of-Thought)或一个树状结构(如思维树,Tree-of-Thought),可以显著提升模型的推理能力 。因此,上下文处理不仅仅是文本的拼接,更是一种对信息进行结构化、序列化和优化的艺术,其目标是让LLM能够“看懂”并“用好”这些复杂的信息。

3、上下文管理:记忆、压缩与优化

上下文管理是上下文工程的“大脑”,负责在整个交互过程中,对上下文信息进行持续的监控、维护和优化。由于LLM的上下文窗口是有限的“工作记忆”,而智能体在运行过程中会产生源源不断的信息流,因此,如何高效地管理这个有限的记忆空间,就成为决定系统性能的关键。上下文管理主要涉及记忆、压缩和优化三个方面。

记忆管理旨在为AI构建一个类似人类的记忆系统。这通常通过引入外部存储(如向量数据库、知识图谱)作为“长期记忆”,与LLM内部的上下文窗口(“短期记忆”)相结合来实现 。记忆管理的核心机制包括:如何将短期记忆中的重要信息“巩固”到长期记忆中,以及如何在需要时从长期记忆中“检索”相关信息并加载到短期记忆中 。一些先进的系统甚至引入了“工作记忆”和“程序性记忆”等概念,以更精细地模拟人类的认知过程 。

记忆压缩是解决上下文窗口瓶颈的直接手段。当上下文信息过长时,系统需要对其进行压缩。压缩技术多种多样,从简单的截断、摘要,到更复杂的语义压缩和知识蒸馏 。例如,可以对冗长的对话历史进行摘要,只保留关键决策点和结论;或者从多个相似的文档中提取出核心观点和模式,形成一个更紧凑的知识表示 。

记忆优化则是一个更宏观的概念,它涉及到如何在整个系统层面提升上下文的效用。这包括上下文的选择策略(决定哪些信息最重要)、上下文的排序策略(将最关键的信息放在最前面或最后面,以利用LLM的注意力偏差)以及上下文的隔离策略(在多智能体系统中避免信息干扰)。通过这些精细的管理和优化手段,上下文工程确保了AI在任何时候都能在一个信息丰富、重点突出且无干扰的环境中进行决策,从而最大化其性能和可靠性。

4、基座大模型技术的相关突破

为了攻克Transformer模型在处理长序列时面临的二次方计算复杂度瓶颈,目前已经在多个技术方向上取得了关键性突破,这些突破大致可以分为对现有架构的优化和全新的架构设计两大类。

在优化现有Transformer架构方面,一个核心挑战是位置编码的限制。传统的位置编码方法在序列长度超出训练范围时会失效。为了解决这个问题,研究者们提出了位置插值技术,例如YaRN(Yet another RoPE-based NTK-aware method),它通过智能地重新缩放位置索引,而非简单地外推到未见过的位置,从而使模型能够处理远超其原始上下文窗口限制的序列 。LongRoPE等技术甚至通过两阶段微调,成功将上下文窗口扩展到了惊人的2048K token。这些技术在不改变模型核心架构的情况下,显著提升了长上下文处理能力。

然而,要从根本上解决二次方复杂度的难题,则需要更激进的架构创新。这催生了多种超越传统自注意力机制的新架构,其中,状态空间模型(State Space Models, SSMs) 如Mamba,通过引入一个固定大小的循环状态,实现了线性的计算复杂度和恒定的内存占用,使其在处理超长序列时比传统Transformer更具效率。

另一大创新方向是线性注意力(Linear Attention) ,它通过将注意力计算转化为线性形式,彻底摆脱了O(N²)的束缚 。此外,还有如LongNet这样的模型,它采用扩张注意力(Dilated Attention)机制,随着token间距离的增加而指数级扩大感受野,实现了线性复杂度,理论上可以处理超过十亿token的序列。

这些架构层面的革命性创新,不仅为长上下文处理提供了全新的解决方案,也为未来设计更高效、更具扩展性的AI模型开辟了新的道路。

5、记忆架构的演进

AI智能体的记忆架构是上下文工程的核心,其演进路径清晰地反映了从简单、被动的信息存储到复杂、主动的记忆管理的转变。

最初,为了应对有限的上下文窗口,最基础的记忆管理策略是 “滑动窗口”。这种方法只保留对话历史中最新的N条消息作为上下文,当新消息到来时,最旧的消息被丢弃。这类似于人类在对话中更关注最近的信息。滑动窗口的优点是实现简单,能保证上下文大小恒定,但缺点是它会“遗忘”掉早期对话中的重要信息,对于需要长期依赖的任务表现不佳 。这种策略虽然解决了上下文溢出的问题,但代价是牺牲了长程记忆能力。

为了克服滑动窗口的局限性,研究者们开发了更先进的记忆架构,其中分层记忆和外部记忆(External Memory)是两个重要的发展方向

分层记忆系统模仿人类大脑的记忆机制,将记忆划分为不同层次。例如,Activation Refilling (ACRE)系统采用双层KV缓存,第一层(L1)缓存以紧凑的形式捕获全局信息,第二层(L2)缓存则提供详细的本地信息。系统可以根据查询动态地从L2缓存中向L1缓存补充相关信息,从而在全局理解和细节把握之间取得平衡。

外部记忆则更进一步,将记忆完全从模型的上下文窗口中分离出来,存储在外部数据库中。例如,Memory-Augmented Neural Networks (MANNs)利用外部记忆库来存储和检索信息,使得智能体能够处理需要长期依赖的复杂任务 。这种架构允许智能体拥有理论上无限的记忆容量,并通过检索机制按需调用相关信息,极大地提升了其在长时程任务中的表现。

6、非注意力机制的探索

面对Transformer自注意力机制在处理长序列时固有的二次方复杂度瓶颈,研究界开始积极探索完全摒弃注意力机制的全新架构,其中状态空间模型(State Space Models, SSMs)如Mamba和基于线性RNN的架构成为了备受瞩目的新星。

这些非注意力模型的核心思想是回归到循环神经网络的序列处理方式,但通过创新的设计解决了传统RNN难以捕捉长距离依赖的问题。以Mamba为代表的SSMs,通过引入一个精心设计的、数据依赖的“选择机制”,使得模型能够像注意力机制一样,有选择地关注或忽略输入序列中的信息,同时保持了RNN的线性计算复杂度(O(N)) 和恒定内存占用。

这种“选择性状态空间”模型在多个基准测试中展现出与Transformer相媲美甚至更优的性能,尤其是在处理长序列方面,为构建高效的大语言模型提供了全新的范式。

除了SSMs,另一类重要的非注意力架构是基于线性化Transformer的模型,如RecurrentGPT和Titans。这些模型试图将预训练好的Transformer模型转换为等效的RNN形式,从而继承RNN的线性复杂度优势。例如,RecurrentGPT通过将提示分解为输出、短期记忆、长期记忆和计划等部分,模拟了RNN的递归过程,使得模型能够基于之前的记忆和计划来生成后续内容,从而生成任意长度的文本。

Titans架构则更为复杂,它结合了短期记忆(标准的自注意力)、持久记忆(可学习的参数)和一个创新的自适应长期记忆模块(LMM),该模块可以在测试时进行快速、局部的更新,以适应新的信息。这些非注意力机制的探索,不仅是对Transformer架构的一次深刻反思和挑战,更是为了解决AI智能体在处理长时程、复杂任务时“记忆”和效率问题的根本性突破,预示着未来AI模型架构将更加多元化和高效化。

7、记忆系统:短期、长期与工作记忆

在上下文工程的系统实现中,构建一个高效的记忆系统是赋予AI智能体持续学习和个性化交互能力的关键。一个设计良好的记忆系统通常会借鉴人类记忆的认知模型,将其划分为短期记忆、长期记忆和工作记忆三个核心部分。短期记忆,也常被称为会话记忆或上下文窗口,负责存储当前交互轮次内的信息。它使得智能体能够理解对话的即时上下文,对用户的最新指令做出连贯的反应。然而,短期记忆的容量有限,并且通常在会话结束后就会被清空,这限制了智能体进行长程推理和跨会话学习的能力。

为了克服这一限制,长期记忆系统应运而生。长期记忆负责在多个会话之间持久化地存储关键信息,例如用户的个人偏好、历史交互记录、重要的事实知识等 。这使得智能体能够“记住”用户,提供高度个性化的服务,并不断从过去的交互中学习。长期记忆的实现通常依赖于外部存储系统,如向量数据库或传统的数据库,并通过检索机制在需要时将相关信息注入到短期记忆中。

工作记忆则是一个更为动态的概念,它在多智能体协作的场景中尤为重要。工作记忆充当一个共享的“白板”,允许多个智能体在执行复杂任务时交换信息、协调步骤和共享状态,从而实现高效的团队协作 。

通过将这三种记忆类型有机结合,上下文工程能够为AI智能体构建一个功能强大、层次分明的记忆体系,使其从简单的对话机器人进化为能够持续学习、适应和协作的智能伙伴。

8、工具集成推理:赋予AI调用外部能力

工具集成推理是上下文工程将AI智能体从“纸上谈兵”的理论家转变为能够与现实世界交互的行动者的核心技术。其核心理念是,AI智能体不应仅仅依赖于其内部预训练的知识,而应被赋予动态调用外部工具(如API、数据库、计算器等)的能力,以获取实时信息或执行具体操作。

这一能力的实现,极大地扩展了AI的应用边界,使其能够完成需要与外部系统交互的复杂任务,例如预订机票、查询天气、分析数据或控制智能家居设备。在上下文工程的框架下,工具集成推理是一个系统性的过程,它不仅仅是简单地为模型提供一个工具列表,而是涉及到工具的选择、描述、调用和结果解析等多个环节。

一个典型的工具集成推理流程如下:首先,系统需要维护一个“工具目录”,其中详细描述了每个工具的功能、输入参数和输出格式 。

当用户提出一个请求时,上下文工程系统会分析该请求,并从工具目录中检索出可能相关的工具。然后,这些工具的描述信息会被整合到发送给大语言模型的提示中。模型在理解了用户意图和可用工具后,会生成一个结构化的调用指令,指定要使用的工具及其参数。

智能体框架(如LangGraph)会解析这个指令,执行相应的API调用,并将返回的结果再次作为上下文提供给模型,以便其生成最终的回答或进行下一步的推理 。这个 “推理-调用-观察”的循环可以重复多次,直到任务完成。通过这种方式,上下文工程将AI模型转变为一个强大的“推理引擎”,它能够像人类一样,通过使用各种工具来解决问题,从而实现了从信息生成到任务执行的跨越。

9、多智能体系统:通过协作解决复杂问题

随着AI智能体能力的增强,单个智能体在处理极其复杂或需要多领域知识的任务时仍可能力不从心。

为了应对这一挑战,多智能体系统(Multi-Agent Systems) 应运而生,并成为上下文工程的一个重要发展方向。多智能体系统的核心理念是“分而治之” ,即将一个复杂的任务分解为多个子任务,并由一组专门化的智能体协作完成。例如,在规划一次家庭旅行时,一个智能体可以负责查找航班信息,另一个负责预订酒店,第三个则负责规划当地的行程。这种协作模式不仅提高了任务处理的效率和成功率,也使得系统更具可扩展性和灵活性。

在多智能体系统中,上下文工程扮演着至关重要的 “协调者” 角色。它不仅需要为每个智能体提供完成任务所需的特定上下文,还需要管理智能体之间的信息流动和协作流程。例如,一个智能体框架如CrewAI或AutoGen,可以定义一个工作流,指定任务的分解方式、每个智能体的角色和职责,以及它们之间如何交换信息 。上下文工程通过工作记忆等机制,为智能体之间提供了一个共享的“黑板”,使得它们可以发布自己的发现、共享状态信息,并协调彼此的行动 。

谷歌研究院提出的 “智能体链”(Chain-of-Agents, CoA) 框架就是一个典型的例子,它通过让多个大语言模型以链式结构协作,利用自然语言进行信息聚合和推理,从而在长文本问答、摘要和代码补全等任务上取得了显著优于RAG和单智能体方法的性能提升 。这种通过上下文工程驱动的多智能体协作,代表了AI系统从单一智能向群体智能演进的关键一步。

上下文工程的未来:迈向更智能、更自主的AI

上下文工程的技术演进正朝着更深层次的智能化和自主性发展,旨在让AI系统能够像人类一样,在复杂多变的环境中理解和行动。这一演进主要体现在三个关键方向:多模态上下文的深度融合、上下文工程的自动化与自我优化,以及多智能体之间的协作式推理。这些方向共同推动着AI从一个被动的信息处理器,向一个主动的、具备情境感知和问题解决能力的智能体转变。

未来的上下文工程将不再局限于纯文本信息,而是会深度融合文本、图像、声音、视频等多种模态的数据,为AI构建一个更加全面和立体的感知观。这种多模态上下文的融合,将使AI能够更准确地理解现实世界的复杂性。

例如,在医疗智能诊断场景中,一个多模态AI系统不仅能分析病人的病历文本(症状描述、过往病史),还能结合医学影像(如X光片、CT扫描)和医生的语音记录(会诊讨论),从而做出更精准的判断。

在技术实现上,这要求上下文工程系统能够有效地处理和索引不同模态的数据,并建立跨模态的关联。例如,通过多模态大模型,系统可以将图像内容转化为文本描述,并纳入上下文窗口;或者通过语音转文字技术,将音频信息整合进来。这种融合不仅增加了上下文的丰富度,也对上下文管理提出了更高的要求,需要更智能的压缩和筛选机制,以避免无关的多模态信息淹没关键信号,确保AI在有限的上下文窗口内接收到最相关和最高质量的信息。

当前,上下文工程在很大程度上仍依赖于人工设计和调试,这是一个耗时且需要专业知识的过程。未来的一个重要趋势是实现上下文工程的自动化,让AI系统能够自主地管理和优化其自身的上下文。这包括两个层面:一是 “模型感知的上下文适应”,即大模型能够根据当前任务,动态地向系统请求特定类型、格式和粒度的上下文信息 。

例如,一个AI代理在处理财务报告时,可以主动请求获取特定季度的销售数据和JSON格式的客户反馈,而不是被动地接收所有信息。二是 “自我反思的代理” ,即AI能够内省和审计自己的上下文,识别潜在的问题,如上下文冲突、信息过时等。这种自动化不仅能极大地提高AI系统的可靠性和鲁棒性,还能降低开发和维护的门槛,使更多非专业人士能够构建强大的AI应用。实现这一目标,需要在上下文工程框架中集成元学习和自我监督机制,让AI在与环境的交互中不断学习和优化其上下文管理策略。

随着任务复杂度的增加,单一AI智能体往往难以胜任。未来的上下文工程将更多地依赖于多智能体系统,通过多个具备不同专长的AI代理之间的协作来解决复杂问题。

在这种架构中,上下文管理变得尤为关键。每个代理需要拥有与其角色相关的特定上下文,同时,代理之间需要通过高效的通信机制共享和同步上下文,以避免信息孤岛和“传话游戏”效应(即信息在传递过程中失真)。

例如,在一个软件开发项目中,可以有一个“架构师”代理负责理解整体系统设计,一个“程序员”代理负责编写代码,一个“测试员”代理负责验证功能。上下文工程系统需要确保“程序员”代理能获取到最新的设计文档(来自“架构师”),而“测试员”代理则能获取到最新的代码变更(来自“程序员”)。

此外,这种协作不仅限于AI之间,更包括人类与AI的深度协同。上下文工程需要设计出高效的人机交互界面和工作流,让人类能够方便地注入领域知识、设定高层目标、进行关键决策,并对AI的行为进行监督和反馈,形成一个高效、可信的人机协作闭环。

Context Engineering 2.0论文解读

在上海交大等研究机构《Context Engineering 2.0: The Context of Context Engineering》这篇论文中,提到了上下文工程从1.0进化到2.0的过程。

文章请见:https://arxiv.org/pdf/2510.26493。

这篇论文也揭示了上下文工程诞生的根本原因——为弥补当前大语言模型在感观不足、理解局限、记忆缺失、注意力涣散四大核心缺陷而构建的系统性解决方案。其技术价值与创新逻辑可拆解如下(有一些是目前和未来的技术探索方向,落地情况未知,仅供参考):

一、感观不足:AI的"信息输入缺失"

问题本质:人类通过五官接收环境信息(表情/语气/场景),而LLM仅能处理文本输入,导致90%的上下文丢失。

工程方案:

(1)多模态融合:将图像/音频编码为与文本共享的向量空间(如CLIP架构)。

(2)分布式感知:通过IoT设备/可穿戴硬件采集环境数据(温度/位置/生物信号)。

(3)脑机接口:未来可能直接读取神经信号(如Neuralink实验)。

二、理解局限:逻辑关系的"认知天花板"

问题本质:模型难以解析隐含逻辑(如"那个报告"指代的具体文件),推理深度不足人类1/10。

工程方案:

(1)自我烘焙(Self-Baking):将原始信息预处理为结构化知识图谱。

(2)模式化提取:固定模板抽取关键实体(人/事/时/地)。

(3)在线蒸馏:渐进式压缩上下文为可推理的向量知识。

三、记忆缺失:Transformer的"健忘症"

问题本质:模型上下文窗口有限(如GPT-4仅128k tokens),无法形成长期记忆。

工程方案:

(1)分层存储架构:短期记忆:上下文窗口(内存),长期记忆:RAG外部数据库(硬盘)。

(2)记忆转移机制:自动筛选重要对话存入知识库(类似人类睡眠记忆巩固)。

四、注意力涣散:信息的"选择困难症"

问题本质:面对海量上下文时,模型无法像人类般聚焦关键信息。

工程方案:

(1)智能检索协议:逻辑依赖分析、新近度-频率加权算法。

(2)主动推断系统:预测用户潜在需求并预加载上下文。

图:技术演进路线图

该技术框架的本质是将人类20万年进化出的环境感知-记忆形成-逻辑推理能力,通过工程化手段"嫁接"给AI系统。

正如《Context Engineering 2.0: The Context of Context Engineering》这篇论文中提到:当这些脚手架最终内化为模型原生能力时,上下文工程将完成其历史使命——这正是通向AGI的必由之路。


参考资料

1、https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents

2、https://chatpaper.com/paper/164760

3、https://contextengineering.ai/blog/what-is-context-engineering

4、https://eu.36kr.com/en/p/3542649852407945

5、https://blog.langchain.com/the-rise-of-context-engineering

6、https://arxiv.org/html/2504.21030v1

7、https://code-b.dev/blog/context-engineering

8、https://skywork.ai/skypage/en/contextmanager-ai-engineer-guide/1979090956360208384

9、https://arxiv.org/pdf/2510.26493

10、https://www.vellum.ai/blog/multi-agent-systems-building-with-context-engineering

11、腾讯科技,一篇论文,读懂上下文工程的前世今生|上交大新论文解读



本文提出的观点仅用于AI大模型领域的交流学习,图文禁止用于商业用途,版权归原创者所有。

如您需转载本文内容,请联系作者并注明出处。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询