微信扫码
添加专属顾问
我要投稿
Andrej Karpathy提出"上下文工程"新概念,揭示如何通过精准背景信息激发大模型真正潜力。核心内容: 1. 从提示工程到上下文工程的范式升级 2. 构建有效上下文的七大科学要素 3. 上下文工程中艺术与科学的精妙平衡
你们平时可能都听过“提示工程(prompt engineering)”这个词,觉得它就是写几句话给AI让它完成任务。但今天我要告诉你们,这个词有点“过时”了,我们现在更喜欢叫它“上下文工程(context engineering)”!
这是来自AI大佬Andrej Karpathy观点:
为什么改名为“上下文工程”?
你们可以把AI想象成一个超级聪明的同学,它要完成一项任务,光告诉它任务是什么还不够,它还需要很多相关的背景知识。这个“背景知识”就是我们说的“上下文”。
在真正厉害的LLM应用里,“上下文工程”就是一门精妙的艺术和科学!它可不像你们平时用ChatGPT那样,随便输入一句话就完事了。
它是一门“科学”:
因为我们需要非常讲究地把各种信息精准地塞进AI的“大脑”里。这里面包括:
详细的任务描述和解释: 不仅仅是“写作文”,而是“写一篇关于环保的议论文,观点要积极向上,字数800字左右”。
少量示例(few-shot examples): 就像给AI看几篇优秀的范文,让它知道什么样的文章是好的。
检索增强生成(RAG): 这就像给AI一个搜索引擎,让它在海量信息中找到最相关、最新的资料来帮助自己。
相关数据(可能是多模态的): 不仅仅是文字,可能还有图片、视频等等,AI可以从中获取更多信息。
工具: AI可能需要使用一些工具,比如计算器、翻译器,这些也需要提前告诉它。
历史和状态: AI要记住之前发生过什么,比如你之前问过它什么问题,它回答了什么,这样它才能更好地理解你接下来的意图。
信息压缩: AI的“大脑”容量有限,我们需要把大量信息浓缩提炼,只保留最重要的部分。
如果给的信息太少或者形式不对,AI可能就搞不清楚状况,表现得不那么聪明。但如果给的信息太多或者不相关,AI不仅会更“烧钱”(因为它处理的信息更多),甚至还可能因为它被太多干扰信息搞晕而表现变差。所以,怎么把握这个度,真的是一件非常复杂的事情!
它还是一门“艺术”:
因为这里面还有很多“只可意会不可言传”的成分,需要我们凭借直觉去揣摩AI的“心理”,就像是理解一个人的“脾气”一样。怎么让AI更好地理解我们,如何用最巧妙的方式引导它,这都需要经验和灵感。
“上下文工程”只是冰山一角
别以为搞定了“上下文工程”就万事大吉了!一个真正完整、强大的LLM应用,除了“上下文工程”这个核心技术,还需要做很多很多工作:
那些说LLM应用只是一个“ChatGPT套壳”的说法,简直是大错特错!它背后隐藏着巨大的技术挑战和创新。
网友热评:
1、“上下文工程”与“提示工程”其实类似,比如,对于一个陷入某个上下文中,你提示他一下,可以惊醒梦中人,比如出租车开得快多赚钱,你担心安全,那么你说一句提示:头晕,他此时正陷入赚钱上下文中,被你提示以后,也许觉得应该照顾顾客舒适度,这是服务,否则被投诉。
但是,上下文这个词语更能表达被提示对象处于认知陷阱,灯下黑状态,完全不自知,正如被电信诈骗转账时,还需要出动警察来提示才可能阻止,这是主体的认知陷入的陷阱有多深,身在庐山中不识庐山真面目!
2、Context engineering is the new vibe coding
3、人们使用 "提示 "一词,往往(不正确地)将一个相当复杂的部分轻描淡写化了。你可以提示 LLM 告诉你天空为什么是蓝色的。但是应用程序会为 LLM 建立上下文(一丝不苟),以解决他们的自定义任务。
4、简直是天才般的想法,完美解释了我们为什么要强调“上下文工程”的重要性!
人眼看世界,AI“看”信息
你们知道吗?我们人眼虽然看起来能看到一大片区域,但其实真正能看得最清楚的地方,就只有中间一个小小的点,我们叫它“中央凹”。就像你们玩游戏时,准星只有一个,但你却能感觉到屏幕上一切都挺清楚。这是因为我们的大脑很厉害,它会飞快地、自动地把这个“高精度准星”对准你最想看的地方,这样你就感觉整个视野都很清晰。
LLM的“准星”与“视野”
LLM的“上下文窗口”也是一个道理!它就像AI的“高精度准星”。它的“脑容量”是有限的,能一次性“看清”的信息量很小。尤其当你让它处理一大堆文件、代码或者文章时,这些信息量可能远远超过它能一次性“看清”的范围。
这时候,“上下文工程”就变得至关重要了!它就像一个超级筛选器和信息调度员。我们要做的,就是从海量的可能信息中,精挑细选出最有用、最关键的“金子”。然后,还要把这些“金子”按照正确的顺序、配上恰当的引导语,精准地“喂”给AI的“准星”。这样做,就是为了让AI的“大脑”能把所有的精力都集中在完成任务最有价值的部分上,不会被那些无关紧要的信息分心。
动态调整,让AI更聪明
更厉害的是,现在我们做“上下文工程”,已经不是那种“一锤子买卖”了!它可以在AI工作的过程中不断进化和调整。
想象一下,AI就像一个侦探,它可能先去图书馆找了一些线索(第一次搜索)。根据这些线索,它发现某些方向更有价值,于是又去档案馆找到了更关键的证据(第二次搜索)。如果档案馆的证据比图书馆的更有用,它甚至会把之前从图书馆拿到的不那么重要的线索“扔掉”,只保留最有用的信息。
这种动态的、像“智能体”一样不断调整“焦点”和“线索”的管理方式,正是我们现在面临的最大挑战!但也是它,能让我们开发出最强大、最聪明的AI应用!
5、一切都与上下文工程有关。LLM是无状态函数,它将输入转化为输出。为了获得最佳输出,你需要为它们提供最佳输入。
创造良好的上下文意味着:
6、我非常喜欢 "上下文工程 "这个术语,而不是 "提示工程"。
它更好地描述了核心技能:为任务提供所有上下文的艺术,使 LLM 能够似是而非地解决任务。
7、我真的很喜欢!但还是深了一层。 我认为实际的技能更像是意图工程。非常清楚地表达你想要什么。尽管很关键,但背景仍然只是支持。 更重要的是清晰的思维。
8、点菜 vs. 当大厨:天壤之别!
你们平时去餐厅吃饭,是不是觉得只要会点菜就行了?“服务员,来份宫保鸡丁,再来份麻婆豆腐!”——这就像是你们平时给ChatGPT发提示(prompt),简单明了。
但真正的AI大模型应用,它可不是个点菜的顾客,它是一个要在厨房里掌勺的大厨!你想想看,一个大厨要做一桌菜,他得:
所以,大部分人以为的“提示工程”,就是像点菜一样,写几句聪明的请求给ChatGPT。但真正的LLM应用,那可是在厨房里上演一场高难度、高效率的“美食大戏”!
信息“俄罗斯方块”:玩转上下文
你们玩过俄罗斯方块吧?那些方块得想办法拼到一起,不能有空隙,也不能堆太高。LLM应用处理信息,就像在玩一场超级复杂的“信息俄罗斯方块”:
这都需要精密的计算和巧妙的安排,才能让AI在有限的“脑容量”里,获得最有效的信息支持!
幕后“指挥家”:模型间的华丽交响
除了这些“俄罗斯方块”,AI大模型应用在幕后还有一场华丽的“交响乐”!它就像一个高超的指挥家,协调着所有的乐手:
所以,那些嘲笑说LLM应用只是个“ChatGPT套壳”的人,他们根本不知道为了让这些东西真正大规模地运转起来,需要投入多少复杂的工程设计和智慧!那可不是简单的套个壳子,那是一场科技与智慧的极致融合!
9、正是如此。重新训练人工智能需要多长时间?几个月。
所以,如果你不给它提供正确的上下文,它就会获得过时的信息。
这就是为什么我们会看到所有这些研究模型涌现出来,因为它们会进行实时网络扫描以提取上下文,然后反馈给模型以进一步提示。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-06-26
Doc2X:文档解析与翻译转换的AI全方位解决方案
2025-06-26
AI时代的领导力变革,可能会比以往的革命来得更猛烈些丨文末赠书
2025-06-26
Kimi-Researcher首发实测:它凭什么在AI“高考”中超越Claude和Gemini?
2025-06-26
Claude Code 基础
2025-06-26
那啥,企业智能体开发范式?要我说,都是“上下文工程”!
2025-06-26
李志飞的 AI 实验:1 个人,2 天做出 AI 时代的「飞书」,重拾 AGI 信仰
2025-06-26
AI 原生的信息获取和分发——思考与实践|深言科技岂凡超
2025-06-26
用上Cursor就是AI协同研发了?
2025-05-29
2025-04-11
2025-04-01
2025-04-12
2025-04-12
2025-04-06
2025-04-29
2025-04-29
2025-05-07
2025-04-17
2025-06-26
2025-06-26
2025-06-25
2025-06-25
2025-06-24
2025-06-24
2025-06-24
2025-06-23