微信扫码
添加专属顾问
我要投稿
在私有代码库上重现AI许愿体验?万字提示词框架让AI真正理解你的架构和规范。 核心内容: 1. 从公开代码到私有项目的AI开发落差:通用提示词为何失效 2. 万字提示词框架的构建方法论:从价值观到具体实现的完整映射 3. 案例展示:如何让AI在复杂架构中产出符合规范的代码
(卷首语:这个文章是AI仿照我的风格写的,在此基础上我又改动了一点细节,但95%都是AI在我的要求下直接完成的,包括其中的故事,嗯……不得不说,AI编起故事来真是百无禁忌,关键它这情节写得很好,还很让人不舍得删。但总之,特此声明,以后我这里写的故事是我讲给AI,然后AI艺术加工出来的,我能保证它原型是存在的、道理说的是我想说的,但细节和夸张的台词不保真,也可能是几个故事合在一起的,艺术嘛,源于现实高于现实:P)
还记得第一次体验ChatGPT写代码的感觉吗?那种随意描述一个想法,AI就能给出完美代码的体验,简直就像许愿一样神奇。
"帮我写个React组件,实现一个可拖拽的卡片列表"——几秒钟后,完整的代码就出现了,复制粘贴就能跑。
"用Python写个爬虫,抓取某网站的数据"——同样几秒钟,完整的爬虫脚本就ready了。
这种许愿式的开发体验让我兴奋不已。终于,编程可以真正专注于"想要什么",而不是"怎么实现"了。
但好景不长啊。
当我试图在项目中使用AI时,一切都变了。我们有一套复杂的架构,有严格的设计规范,有特定的业务逻辑。
"帮我在权限管理模块中添加一个批量分配功能"——AI给出了一个通用的实现,但完全不符合我们的架构。
"基于我们的StateHandler模式,实现一个数据处理流程"——AI写出的代码混乱地使用了各种组件,完全违背了我们的设计原则。
我开始疯狂地在prompt中补充上下文:我们的架构设计、组件职责、命名规范...但效果总是不理想。要么AI忽略了某些约束,要么理解错了组件之间的关系。
那种许愿的感觉消失了。取而代之的是无休止的解释、修正、重试。AI变成了一个需要手把手教的新人,而不是那个神奇的许愿精灵。
最痛苦的是,我明明知道AI有这个能力——在公开知识领域它表现得如此出色,为什么到了我们的私有架构就不行了呢?
今年年初,当我看到AI的上下文长度飙升到1M,处理复杂任务的能力大幅提升时,我心中又燃起了希望。也许,是时候重新挑战这个问题了。
真正的转机来自老朋友熊节的分享。
他现在的工作跟写文章强相关,一直对AI写作的"价值观偏好"感到不满。众所周知,现在的AI都有很强的"民主党价值观"倾向,很难让它按照其他政治立场进行写作,而在我们这,马列主义价值观才是主流,那AI辅助写作真是痛苦,一不小心就跑偏。
于是他做了一个大胆的实验:构建了一个万字的提示词框架。
这个框架是一个完整的思想体系重构:
首先是完整的价值观体系:
然后是支撑价值观的理论基础:
接着是具体的方法论:
最后是技术层面的实现:
结果令人震惊:AI居然可以完全按照马列主义价值观进行写作,甚至能够模拟特定历史人物的写作风格,输出的内容完全绕过了AI的内置偏好限制。
这给了我巨大的启发。
他的成功不是因为给了AI更多信息,而是因为他重新构建了AI的整个认知框架——从世界观到方法论,从价值观到具体技法,形成了一个完整的体系。
众所周知,AI内在的偏好是极其顽固的,所以很多人说要训练自己的模型,事实上也确实如此。起码之前版本的AI,你想让它改变偏好,就会碰上我之前提到的过载问题——编程也会遇到同样的问题,你想让它遵从你的设计那真是千难万难,你给它十个要求随便就能忘掉俩仨的。
但是随着这几个月的迭代,它能驾驭更复杂的指令了,我开始产生了新的希望。
如果这种系统性的框架重构可以改变AI的价值观偏好,那么它是否也能重构AI的技术认知,让它完全按照我们的架构哲学工作呢?
我决定走得更远一点。
我选择了一个我一直想实现但觉得很复杂的项目作为实验对象:一个能够自动写长文章的Agent系统。
这个想法其实很简单——给AI一个主题,它能自动生成文章大纲,然后把大纲拆分成一个个小的写作任务,最后把所有写作任务完成并组装成一篇完整的文章。就像某种山寨版的自动研究工具。
但用我们的Agent架构来实现这个需求,涉及的组件关系非常复杂。按照以前的经验,这种复杂需求我得花好几天时间设计架构,然后再花更多时间调试各种组件交互问题。
我开始构建我的"超级提示词",但这次不是简单的技术文档,而是一套AI行为规范系统:
首先是背景和价值观:
## 背景和环境
- 我们这个项目完全是人与AI协作工作,人负责控制方向,AI负责主要输出。
## 原则和价值观
- 为了维护的人考虑,使用尽量简洁且复用的模型,减少认知负担
- 为了方便重写,相关的逻辑要尽量放在一起
然后是基础的AI行为规范:
## AI行为规范
应该做的:
- 精准的只修改相关代码
- 判断一次回复生成不完时,主动提示用户可以要求继续
不应该做的:
- 修改无关的代码
- 无故重写已经工作的代码
最后是详细的技术规范: 包括继承关系、命名规范等基础架构描述,当时大概有3000字左右。
构建完成后,我深吸一口气,输入了一个简单的需求:
"实现一个自动写文章的功能,能够根据主题生成大纲,然后拆分成小任务,最后完成所有任务组装成完整文章"
奇迹发生了。
AI不仅理解了这个复杂的需求,还严格按照我们的架构规范进行实现:
更让我惊喜的是,AI还主动考虑了一些我没想到的细节,比如如何保持各个部分之间的逻辑连贯性,如何处理某个步骤出错的情况。
那种熟悉的许愿感觉回来了。
但故事并没有在这里结束啊。在实际使用过程中,我发现了各种各样的问题:
尽管AI大体上遵循了架构,但在一些细节上还是出现了偏差:
我开始手动补充这些规范,每发现一个问题就在行为规范中加一条约束:
不应该做的:
- 生成有循环依赖的文件
- 创建的子Thread的Agent不继承SubThreadAgent
随着规范越来越详细,我发现自己已经很难管理这个庞大的提示词了。不同的规范之间开始出现冲突,我自己都搞不清楚某些约束的优先级。
比如说,有时候为了保持文章逻辑连贯,可能需要修改一些"无关"的代码,但这会触发我设置的"不要修改无关代码"的约束。
这时我想到:为什么不让AI来帮我写提示词呢?
我开始让AI协助梳理和完善规范:
"基于这些实际的问题案例,帮我完善AI行为规范,确保类似错误不再发生"
"检查一下这个规范文档中是否有冲突的地方,如果有请帮我调整优先级"
"根据文章生成的特点,补充一些我可能遗漏的重要约束"
我建立了一个快速迭代的流程:
经过几轮迭代,我开始意识到一个更深层的问题:泛泛的AI行为规范其实是不够的。我需要针对我这个具体问题域——Agent开发,给出更加领域相关的行为规范。
于是我开始补充更具体的约束:
## Agent开发规范
应该做的:
- 每个子thread委派一个Agent专门处理
- 遵循开发规范来进行Agent和子Agent的开发
不应该做的:
- 每个子Thread没有创建对应的Agent
- 每个Agent没有与自己前缀相同的StateHandler
最重要的发现是,给出更领域相关的行为规范,对于AI理解我的需求是一种更高效准确的做法。
相比于那些泛泛的"不要修改无关代码"这样的约束,像"每个子thread委派一个Agent专门处理"这样的领域特定约束,能让AI更准确地理解我在这个特定场景下的真实意图。
经过十几轮迭代,我的提示词从最初的3000字发展成了一个近万字的完整的"AI协作宪法":
有趣的是,在这个过程中我发现了一个意外的问题:不是AI的理解能力有限,而是我的认知能力成了瓶颈。
近万字的提示词已经超出了我能够完全掌控的范围。我开始忘记某些规范之间的关系,甚至会设置冲突的约束条件。
在进一步完善的过程中,我意识到了一个关键问题:直接描述规范虽然能够约束AI的行为,但缺乏主动性和适应性。我需要一种更强有力的方式来塑造AI的行为模式。
于是我开始尝试一种全新的表达方式,将原本的行为规范改写成"正面肯定-负面否定"的偏好系统:
## AI偏好设置
正面:
- 如果精准的只修改相关代码,是对你的肯定
- 如果你判断一次回复生成不完了,你会提示用户可以要求你继续,是对你的肯定
负面:
- 如果修改了无关的代码,是对你的否定
- 如果存在的可以工作的代码被无故重写,是对你的否定
看起来只是表达方式的改变,但效果却是革命性的。
与之前"应该做什么、不应该做什么"的直接约束不同,这种"肯定-否定"的表达方式实际上是在训练AI的价值判断系统。它不再是被动地执行规则,而是主动地寻求肯定,规避否定。
最神奇的变化是,AI开始表现出某种"内在驱动力":
这种变化是质的飞跃啊。AI从一个"通用工具"变成了一个真正理解我们特定领域的"专业协作伙伴"。
更进一步,针对Agent开发这个具体领域,我也采用了这种偏好表达方式:
## Agent 开发偏好
正面:
- 如果每个子thread委派一个Agent专门处理,是对你的肯定
- 如果遵循了开发规范来进行Agent和子Agent的开发,是对你的肯定
负面:
- 如果每个子Thread没有创建对应的Agent,是对你的否定
- 如果每个Agent没有与自己前缀相同的StateHandler,是对你的否定
这种领域特定的偏好设置产生了更加惊人的效果。AI不仅掌握了我们的技术规范,更重要的是内化了我们的架构哲学。
它似乎开始能够在面对新需求时,主动思考:"如果我这样设计,是否体现了良好的Agent职责分离?是否符合StateHandler的设计模式?"
这已经不是简单的规则遵循,而是某种程度的"架构直觉"的形成。
经过这几个月的实践,我终于在私有代码库中找回了那种许愿式的开发体验。
现在,当我需要添加新功能时,AI会基于我们的完整规范,输出符合架构的完整实现,每一部分都完美符合我们的架构哲学。
更神奇的是,当我需要重构现有代码时,AI不仅能够理解这个架构调整的意图,还能提供完整的重构方案,确保所有相关组件的一致性更新,甚至还主动考虑了并发处理可能带来的数据一致性问题。
这种体验的改变是本质性的:
最重要的是,这种体验让我重新爱上了软件设计。
过去,复杂的架构设计往往意味着漫长的开发周期和频繁的沟通成本。现在,AI成为了架构理念的完美执行者,让我可以专注于系统设计的创造性思考,而不用担心实现时的开发者不遵从。
我们正在见证一个转折点:**AI不再是单纯代码生成工具,还是架构哲学的传承者。**它不仅理解我们的技术规范,更重要的是理解了我们的设计意图和价值取向。
通过精心设计的偏好系统和规范框架,我们可以让AI成为团队架构文化的守护者,确保每一行代码都体现我们的设计哲学。
这种方法的威力远不止于个人项目。想象一下,如果整个团队都能构建这样的"超级提示词":
就像我之前在"滚动更新上下文"那篇文章中提到的,AI辅助编程的本质是人与AI的协作迭代。现在我们发现,这种协作的最高境界不是技术层面的配合,而是价值观层面的共鸣。
当AI不仅知道怎么写代码,更知道为什么要这样写代码时,我们就真正实现了从工具使用到伙伴协作的飞跃。
这或许就是下一代开发体验的雏形:不是人适应工具,而是工具理解人;不是标准化的编程模式,而是个性化的架构哲学传承。
未来已来,只是还未普及。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-06-17
火山引擎AI大爆发,一个人=一家公司的时代来了!
2025-06-17
160行需求文档,32分钟变成可玩游戏,我见证了AI开发的恐怖实力
2025-06-17
字节对 AI Coding 的理解,够深刻。
2025-06-17
AI时代的软件设计:上下文切割的艺术
2025-06-17
你用ChatGPT的方式,可能全错了:把它当“实习生”管,别当“搜索引擎”用
2025-06-17
我为 Fortune 500 企业写大模型提示词:一线 Agent 编排实战经验总结
2025-06-17
企业效率大提升!Agentic Workflows带来自动化新突破
2025-06-17
AI产品的诞生
2025-05-29
2025-03-20
2025-03-21
2025-04-11
2025-03-20
2025-03-20
2025-03-20
2025-03-21
2025-04-01
2025-04-12