微信扫码
添加专属顾问
我要投稿
超越提示词工程:揭秘构建智能AI系统的六大核心组件,打造真正懂上下文的AI应用。核心内容: 1. Context Engineering的六大核心组件解析 2. AI Agent如何实现动态决策与状态维护 3. 上下文窗口挑战与优化策略
这篇笔记深入解读了 Weaviate 出品的《Context Engineering》电子书。在大模型应用开发中,仅仅依赖 Prompt Engineering(提示词工程)往往是不够的,如何构建一个能够根据上下文动态调整、拥有记忆并能使用工具的系统,才是打造高质量 AI 应用的关键。这就是 Context Engineering(上下文工程)。
以下是基于原书内容的深度解读与笔记。
PDF地址:https://weaviate.io/ebooks/the-context-engineering-guide
大型语言模型(LLM)的能力令人印象深刻,但开发者很快就会发现一个问题:模型本身很强大,但它是孤立的。它无法访问私有文档,不知道昨天发生的事,甚至会在不知道答案时自信地编造内容。
问题的根源在于上下文窗口(Context Window)——模型的工作记忆空间是有限的。就像白板一样,一旦填满,旧信息就会被擦除,重要细节可能丢失。
单靠写更好的提示词解决不了这个根本限制,需要在模型周围构建一个完整的系统。这就是 Context Engineering(上下文工程)。
Context Engineering 是一门设计架构的学科,它能在正确的时间向 LLM 提供正确的信息。这不是改变模型本身,而是构建连接模型与外部世界的桥梁。
决策大脑,协调何时以及如何使用信息。
将混乱、模糊的用户请求转化为精确、机器可读的意图。
连接 LLM 与特定文档和知识库的桥梁。
提供清晰有效的指令来引导模型推理的技巧。
赋予应用历史感和从交互中学习的能力。
让应用能够采取直接行动并与实时数据源交互。
静态的"检索-生成"流程在简单的 RAG 场景下还行,但一旦任务需要判断、适应或多步推理,这种方式就不够用了。
AI Agent 是一个能够:
LLM 的信息容量有限,上下文窗口一次只能容纳这么多信息。每次 Agent 处理信息时,都需要决定:
更大的上下文窗口并不能解决问题,反而会引入新的故障模式:
常见的上下文错误类型:
Agent 能够有效协调上下文系统,因为它们能够动态推理和决策。常见任务包括:
Agent 充当上下文工程系统中的协调者。它们不会取代其他技术,而是智能地编排这些技术。
上下文工程最重要的步骤之一是如何准备和呈现用户的查询。如果不知道用户到底在问什么,LLM 就无法提供准确的响应。
将原始用户查询转换为更有效的检索版本。这种技术通过以下方式工作:
从单个用户输入生成多个相关查询,改善检索结果。特别适用于查询模糊、表述不当或需要更广泛覆盖的情况。
挑战包括:
将复杂的多方面问题分解为更简单、更集中的子查询,可以独立处理。
通常包括两个主要阶段:
最先进的查询增强形式,使用 AI Agent 智能处理整个查询处理管道。
Query Agent 的能力包括:
LLM 的好坏取决于它能访问的信息。虽然 LLM 在海量数据集上训练,但它们缺乏对特定私有文档和训练完成后创建的任何信息的了解。
分块(Chunking)是检索系统性能最重要的决策。这是将大型文档分解为更小、可管理部分的过程。
设计分块策略时,必须平衡两个相互竞争的优先级:
Fixed-Size Chunking(固定大小分块): 最简单的方法,将文本分割成预定大小的分块(例如 512 个 token)。
Recursive Chunking(递归分块): 使用分隔符的优先级列表(如段落、句子、单词)分割文本,尊重文档的自然结构。
Document-Based Chunking(基于文档的分块): 使用文档的固有结构,例如按 Markdown 的标题、HTML 的标签或源代码的函数分割。
Semantic Chunking(语义分块): 基于含义分割文本,将语义相关的句子组合在一起。
LLM-Based Chunking(基于 LLM 的分块): 使用大型语言模型智能处理文档并生成语义连贯的分块。
Agentic Chunking(智能体分块): AI Agent 动态分析文档的结构和内容,为特定文档选择最佳分块策略。
Hierarchical Chunking(层次分块): 在不同细节级别创建多层分块。
Late Chunking(延迟分块): 与标准流程的架构模式相反,先嵌入整个文档,然后再按token进行关联分块。
Pre-Chunking(预分块): 最常见的方法,所有数据处理都在前期离线完成。
Post-Chunking(后分块): 先进的实时替代方案,分块发生在文档检索之后。
提示工程是设计、完善和优化给 LLM 的输入(提示)以获得期望输出的实践。措辞方式可以直接影响响应的准确性、有用性和清晰度。
Chain of Thought(思维链): 要求模型"逐步思考",将复杂推理分解为中间步骤。
Few-Shot Prompting(少样本提示): 在上下文窗口中提供几个示例,演示想要的输出类型或"正确"答案。
Tree of Thoughts(思维树): 在 CoT 基础上构建,指示模型并行探索和评估多个推理路径。
ReAct Prompting: 结合 CoT 和 Agent,使模型能够动态地"推理"和"行动"。
当 LLM 与外部工具交互时,清晰的提示确保正确的工具选择和使用。
关键要素:
专业提示:如何编写有效的工具描述
在构建 Agent 时,记忆不只是一个额外功能——它是赋予 Agent 生命的东西。没有它,LLM 只是一个强大但无状态的文本处理器。
Andrej Karpathy 提供了完美的类比:将 LLM 的上下文窗口比作计算机的 RAM,将模型本身比作 CPU。
Short-Term Memory(短期记忆): Agent 的即时工作空间,塞进上下文窗口以推动即时决策和推理。
Long-Term Memory(长期记忆): 超越即时上下文窗口,将信息存储在外部以便快速检索。
包括:
Hybrid Memory Setup(混合记忆设置): 大多数现代系统使用混合方法,结合短期记忆的速度和长期记忆的深度。
修剪和精炼记忆: 定期扫描长期存储以删除重复条目、合并相关信息或丢弃过时事实。
有选择地存储: 实施过滤标准,在保存之前评估信息的质量和相关性。
根据任务定制架构: 没有一刀切的记忆解决方案,从最简单的方法开始,逐步分层。
掌握检索艺术: 有效的记忆不在于能存储多少,而在于能在正确的时间检索正确的信息。
如果说记忆给 Agent 一种自我感,那么工具就是赋予它超能力的东西。LLM 本身是出色的对话者和文本处理器,但它们生活在一个泡泡里。
真正的突破是函数调用(Function Calling),也叫工具调用。这种能力现在是大多数模型的原生功能,允许 LLM 输出包含要调用的函数名称和要使用的参数的结构化 JSON。
可能性包括:
search_flights 工具find_flights、search_hotels 和 get_local_events给 Agent 一个工具很容易,让它可靠、安全、有效地使用该工具才是真正的工作。
关键编排步骤:
工具使用的演变越来越趋向标准化。Model Context Protocol (MCP) 由 Anthropic 在 2024 年底推出,提供了一个通用标准来连接 AI 应用与外部数据源和工具。
MCP 将传统的 M×N 集成问题(M 个应用各自需要为 N 个工具编写自定义代码)转变为更简单的 M+N 问题。
Context Engineering 不仅仅是提示大型语言模型、构建检索系统或设计 AI 架构。它是构建互联的、动态的系统,能够在各种用途和用户中可靠地工作。
Context Engineering 由六大核心组件组成:
正在从与模型对话的提示者转变为构建模型生活世界的架构师。最好的 AI 系统不是来自更大的模型,而是来自更好的工程。
如果你觉得这篇文章对你有帮助,别忘了点个赞、送个喜欢
>/ 作者:致Great
>/ 作者:欢迎转载,标注来源即可53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-17
基于递归抽象树检索技术构建反洗钱知识库的探索与实践
2025-11-14
本地知识库搭建(Mia VS cheer studio VS AnythingLLM)
2025-11-13
用 Cognee 构建端到端知识图谱,实现当前效果最好的AI Agent记忆层
2025-11-13
如何使用 Knowledge Graph 和 LLM 构建构建问答系统
2025-11-05
企业级AI独角兽Glean揭秘知识图谱增强大模型:企业AI的关键基石,重新定义智能系统的上下文理解
2025-10-30
一篇文章讲清楚:Ontology为什么是企业落地Agent的关键
2025-10-21
DeepSeek V3.2 AI辅助-构建可视化多维知识立方体展示知识体系
2025-10-19
文档级知识图谱: RAKG(95.91%) VS GraphRAG(89.71%)
2025-09-02
2025-08-28
2025-08-26
2025-08-24
2025-08-30
2025-08-28
2025-09-17
2025-08-25
2025-09-03
2025-09-02