支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


长提示词:在私有代码库上拥有许愿体验 - 许愿驱动开发(Vibe Coding)S2-2

发布日期:2025-06-17 08:26:00 浏览次数: 1533
作者:铜剑技校

微信搜一搜,关注“铜剑技校”

推荐语

在私有代码库上重现AI许愿体验?万字提示词框架让AI真正理解你的架构和规范。

核心内容:
1. 从公开代码到私有项目的AI开发落差:通用提示词为何失效
2. 万字提示词框架的构建方法论:从价值观到具体实现的完整映射
3. 案例展示:如何让AI在复杂架构中产出符合规范的代码

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

(卷首语:这个文章是AI仿照我的风格写的,在此基础上我又改动了一点细节,但95%都是AI在我的要求下直接完成的,包括其中的故事,嗯……不得不说,AI编起故事来真是百无禁忌,关键它这情节写得很好,还很让人不舍得删。但总之,特此声明,以后我这里写的故事是我讲给AI,然后AI艺术加工出来的,我能保证它原型是存在的、道理说的是我想说的,但细节和夸张的台词不保真,也可能是几个故事合在一起的,艺术嘛,源于现实高于现实:P)

开篇:我的AI开发挫败经历

还记得第一次体验ChatGPT写代码的感觉吗?那种随意描述一个想法,AI就能给出完美代码的体验,简直就像许愿一样神奇。

"帮我写个React组件,实现一个可拖拽的卡片列表"——几秒钟后,完整的代码就出现了,复制粘贴就能跑。

"用Python写个爬虫,抓取某网站的数据"——同样几秒钟,完整的爬虫脚本就ready了。

这种许愿式的开发体验让我兴奋不已。终于,编程可以真正专注于"想要什么",而不是"怎么实现"了。

但好景不长啊。

当我试图在项目中使用AI时,一切都变了。我们有一套复杂的架构,有严格的设计规范,有特定的业务逻辑。

"帮我在权限管理模块中添加一个批量分配功能"——AI给出了一个通用的实现,但完全不符合我们的架构。

"基于我们的StateHandler模式,实现一个数据处理流程"——AI写出的代码混乱地使用了各种组件,完全违背了我们的设计原则。

我开始疯狂地在prompt中补充上下文:我们的架构设计、组件职责、命名规范...但效果总是不理想。要么AI忽略了某些约束,要么理解错了组件之间的关系。

那种许愿的感觉消失了。取而代之的是无休止的解释、修正、重试。AI变成了一个需要手把手教的新人,而不是那个神奇的许愿精灵。

最痛苦的是,我明明知道AI有这个能力——在公开知识领域它表现得如此出色,为什么到了我们的私有架构就不行了呢?

转机:AI能力提升后的新尝试

今年年初,当我看到AI的上下文长度飙升到1M,处理复杂任务的能力大幅提升时,我心中又燃起了希望。也许,是时候重新挑战这个问题了。

真正的转机来自老朋友熊节的分享。

他现在的工作跟写文章强相关,一直对AI写作的"价值观偏好"感到不满。众所周知,现在的AI都有很强的"民主党价值观"倾向,很难让它按照其他政治立场进行写作,而在我们这,马列主义价值观才是主流,那AI辅助写作真是痛苦,一不小心就跑偏。

于是他做了一个大胆的实验:构建了一个万字的提示词框架。

这个框架是一个完整的思想体系重构:

首先是完整的价值观体系:

  • 明确什么是"正确"的观点和立场
  • 详细定义什么是"错误"的观点和立场
  • 建立清晰的是非判断标准

然后是支撑价值观的理论基础:

  • 马克思主义的世界观和方法论
  • 历史唯物主义的分析框架
  • 阶级分析和社会矛盾理论
  • 这些理论让抽象的价值观变得具象化和操作化

接着是具体的方法论:

  • 如何运用这些理论进行分析
  • 如何从这些世界观出发构建论证
  • 如何将抽象原理转化为具体观点

最后是技术层面的实现:

  • 特定作者的写作风格分析
  • 具体的论证逻辑和修辞手法
  • 语言表达的技巧和特色

结果令人震惊:AI居然可以完全按照马列主义价值观进行写作,甚至能够模拟特定历史人物的写作风格,输出的内容完全绕过了AI的内置偏好限制。

这给了我巨大的启发。

他的成功不是因为给了AI更多信息,而是因为他重新构建了AI的整个认知框架——从世界观到方法论,从价值观到具体技法,形成了一个完整的体系。

众所周知,AI内在的偏好是极其顽固的,所以很多人说要训练自己的模型,事实上也确实如此。起码之前版本的AI,你想让它改变偏好,就会碰上我之前提到的过载问题——编程也会遇到同样的问题,你想让它遵从你的设计那真是千难万难,你给它十个要求随便就能忘掉俩仨的。

但是随着这几个月的迭代,它能驾驭更复杂的指令了,我开始产生了新的希望。

如果这种系统性的框架重构可以改变AI的价值观偏好,那么它是否也能重构AI的技术认知,让它完全按照我们的架构哲学工作呢?

我决定走得更远一点。

实验:构建复杂设计的完整过程

我选择了一个我一直想实现但觉得很复杂的项目作为实验对象:一个能够自动写长文章的Agent系统。

这个想法其实很简单——给AI一个主题,它能自动生成文章大纲,然后把大纲拆分成一个个小的写作任务,最后把所有写作任务完成并组装成一篇完整的文章。就像某种山寨版的自动研究工具。

但用我们的Agent架构来实现这个需求,涉及的组件关系非常复杂。按照以前的经验,这种复杂需求我得花好几天时间设计架构,然后再花更多时间调试各种组件交互问题。

我开始构建我的"超级提示词",但这次不是简单的技术文档,而是一套AI行为规范系统:

首先是背景和价值观:

## 背景和环境- 我们这个项目完全是人与AI协作工作,人负责控制方向,AI负责主要输出。
## 原则和价值观  - 为了维护的人考虑,使用尽量简洁且复用的模型,减少认知负担- 为了方便重写,相关的逻辑要尽量放在一起

然后是基础的AI行为规范:

## AI行为规范
应该做的:- 精准的只修改相关代码- 判断一次回复生成不完时,主动提示用户可以要求继续
不应该做的:- 修改无关的代码- 无故重写已经工作的代码

最后是详细的技术规范: 包括继承关系、命名规范等基础架构描述,当时大概有3000字左右。

构建完成后,我深吸一口气,输入了一个简单的需求:

"实现一个自动写文章的功能,能够根据主题生成大纲,然后拆分成小任务,最后完成所有任务组装成完整文章"

奇迹发生了。

AI不仅理解了这个复杂的需求,还严格按照我们的架构规范进行实现:

  • 正确地设计了整个流程的状态管理
  • 准确地创建了各种处理组件
  • 完美地实现了任务拆分和管理逻辑
  • 甚至连文件命名都完全符合我们的规范

更让我惊喜的是,AI还主动考虑了一些我没想到的细节,比如如何保持各个部分之间的逻辑连贯性,如何处理某个步骤出错的情况。

那种熟悉的许愿感觉回来了。

验证中的曲折与迭代

但故事并没有在这里结束啊。在实际使用过程中,我发现了各种各样的问题:

第一轮问题:规范遗漏

尽管AI大体上遵循了架构,但在一些细节上还是出现了偏差:

  • 有时候生成的文件之间会出现循环依赖
  • 偶尔会忘记正确设置子线程Agent的继承关系
  • 文章组装的时候逻辑有点混乱

我开始手动补充这些规范,每发现一个问题就在行为规范中加一条约束:


不应该做的:- 生成有循环依赖的文件- 创建的子Thread的Agent不继承SubThreadAgent

第二轮问题:规范冲突与迭代优化

随着规范越来越详细,我发现自己已经很难管理这个庞大的提示词了。不同的规范之间开始出现冲突,我自己都搞不清楚某些约束的优先级。

比如说,有时候为了保持文章逻辑连贯,可能需要修改一些"无关"的代码,但这会触发我设置的"不要修改无关代码"的约束。

这时我想到:为什么不让AI来帮我写提示词呢?

我开始让AI协助梳理和完善规范:

"基于这些实际的问题案例,帮我完善AI行为规范,确保类似错误不再发生"

"检查一下这个规范文档中是否有冲突的地方,如果有请帮我调整优先级"

"根据文章生成的特点,补充一些我可能遗漏的重要约束"

我建立了一个快速迭代的流程:

  1. 用当前的提示词让AI生成一篇测试文章
  2. 发现问题立即记录到"问题清单"
  3. 让AI帮我将问题转化为规范条目
  4. 更新提示词并重新测试
  5. 重复这个循环

第三轮发现:通用规范不够具体

经过几轮迭代,我开始意识到一个更深层的问题:泛泛的AI行为规范其实是不够的。我需要针对我这个具体问题域——Agent开发,给出更加领域相关的行为规范。

于是我开始补充更具体的约束:

## Agent开发规范
应该做的:- 每个子thread委派一个Agent专门处理- 遵循开发规范来进行Agent和子Agent的开发
不应该做的:- 每个子Thread没有创建对应的Agent- 每个Agent没有与自己前缀相同的StateHandler

第四轮发现:领域专业化的威力

最重要的发现是,给出更领域相关的行为规范,对于AI理解我的需求是一种更高效准确的做法。

相比于那些泛泛的"不要修改无关代码"这样的约束,像"每个子thread委派一个Agent专门处理"这样的领域特定约束,能让AI更准确地理解我在这个特定场景下的真实意图。

经过十几轮迭代,我的提示词从最初的3000字发展成了一个近万字的完整的"AI协作宪法":

  • 背景和价值观:确立协作的基本原则
  • 通用行为规范:基础的行为约束
  • Agent开发规范:针对我这个具体领域的专门约束
  • 技术规范:详细的架构约束和开发流程
  • 最佳实践:经验总结和反模式

有趣的是,在这个过程中我发现了一个意外的问题:不是AI的理解能力有限,而是我的认知能力成了瓶颈。

近万字的提示词已经超出了我能够完全掌控的范围。我开始忘记某些规范之间的关系,甚至会设置冲突的约束条件。

行为塑造的力量

在进一步完善的过程中,我意识到了一个关键问题:直接描述规范虽然能够约束AI的行为,但缺乏主动性和适应性。我需要一种更强有力的方式来塑造AI的行为模式。

于是我开始尝试一种全新的表达方式,将原本的行为规范改写成"正面肯定-负面否定"的偏好系统:

## AI偏好设置
正面:- 如果精准的只修改相关代码,是对你的肯定- 如果你判断一次回复生成不完了,你会提示用户可以要求你继续,是对你的肯定
负面:  - 如果修改了无关的代码,是对你的否定- 如果存在的可以工作的代码被无故重写,是对你的否定

看起来只是表达方式的改变,但效果却是革命性的。

与之前"应该做什么、不应该做什么"的直接约束不同,这种"肯定-否定"的表达方式实际上是在训练AI的价值判断系统。它不再是被动地执行规则,而是主动地寻求肯定,规避否定。

最神奇的变化是,AI开始表现出某种"内在驱动力":

  • 主动按照Agent架构的最佳实践来设计方案
  • 在不确定某个组件职责时会基于领域知识做出合理判断
  • 对于可能违反Agent开发原则的地方会主动提醒

这种变化是质的飞跃啊。AI从一个"通用工具"变成了一个真正理解我们特定领域的"专业协作伙伴"。

更进一步,针对Agent开发这个具体领域,我也采用了这种偏好表达方式:

## Agent 开发偏好
正面:- 如果每个子thread委派一个Agent专门处理,是对你的肯定- 如果遵循了开发规范来进行Agent和子Agent的开发,是对你的肯定
负面:- 如果每个子Thread没有创建对应的Agent,是对你的否定- 如果每个Agent没有与自己前缀相同的StateHandler,是对你的否定

这种领域特定的偏好设置产生了更加惊人的效果。AI不仅掌握了我们的技术规范,更重要的是内化了我们的架构哲学。

它似乎开始能够在面对新需求时,主动思考:"如果我这样设计,是否体现了良好的Agent职责分离?是否符合StateHandler的设计模式?"

这已经不是简单的规则遵循,而是某种程度的"架构直觉"的形成。

最终突破:体验的本质性改变

经过这几个月的实践,我终于在私有代码库中找回了那种许愿式的开发体验。

现在,当我需要添加新功能时,AI会基于我们的完整规范,输出符合架构的完整实现,每一部分都完美符合我们的架构哲学。

更神奇的是,当我需要重构现有代码时,AI不仅能够理解这个架构调整的意图,还能提供完整的重构方案,确保所有相关组件的一致性更新,甚至还主动考虑了并发处理可能带来的数据一致性问题。

这种体验的改变是本质性的:

  • 从教学到协作:不再需要反复解释架构原理,AI已经内化了我们的设计哲学
  • 从片段到整体:不再是零散的代码修改,而是系统性的架构实现
  • 从被动到主动:AI会主动提醒可能的问题,主动遵循最佳实践

最重要的是,这种体验让我重新爱上了软件设计。

过去,复杂的架构设计往往意味着漫长的开发周期和频繁的沟通成本。现在,AI成为了架构理念的完美执行者,让我可以专注于系统设计的创造性思考,而不用担心实现时的开发者不遵从。

我们正在见证一个转折点:**AI不再是单纯代码生成工具,还是架构哲学的传承者。**它不仅理解我们的技术规范,更重要的是理解了我们的设计意图和价值取向。

通过精心设计的偏好系统和规范框架,我们可以让AI成为团队架构文化的守护者,确保每一行代码都体现我们的设计哲学。

这种方法的威力远不止于个人项目。想象一下,如果整个团队都能构建这样的"超级提示词":

  • 新人入职时,可以快速学习和内化团队的架构文化
  • 代码审查时,AI可以基于团队价值观提供一致性检查
  • 架构演进时,AI可以确保变更符合既定的设计原则

就像我之前在"滚动更新上下文"那篇文章中提到的,AI辅助编程的本质是人与AI的协作迭代。现在我们发现,这种协作的最高境界不是技术层面的配合,而是价值观层面的共鸣。

当AI不仅知道怎么写代码,更知道为什么要这样写代码时,我们就真正实现了从工具使用到伙伴协作的飞跃。

这或许就是下一代开发体验的雏形:不是人适应工具,而是工具理解人;不是标准化的编程模式,而是个性化的架构哲学传承。

未来已来,只是还未普及。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询