微信扫码
添加专属顾问
我要投稿
AI编程时代已至,人类角色从编码者转变为架构师与监督者——但谁来确保AI代码的正确性?核心内容: 1. AI自主编程已成行业常态,人类工程师转向环境设计与意图定义 2. 新角色"驾驭工程师"面临的审查困境与技能挑战 3. 斯坦福揭示的AI自检系统盲点与行业潜在风险
Claude Code创建者:过去30天,259个PR、4万行代码——每一行都是AI写的。OpenAI:3名工程师、100万行代码——零人工编码。斯坦福法学院:当失败发生时,没人知道为什么,也没人有能力修复。
2026年4月,讨论"程序员要不要用AI写代码"已经过时了。这不是一个选择题,是一个既成事实。
Claude Code的创建者Boris Cherny公开分享了他的数据:过去30天,259个PR、497次提交、4万行新增代码——每一行都是AI写的。他说自己即将完全放弃VS Code,转向纯AI编排模式。
OpenAI更激进。3名工程师、5个月时间,通过Codex Agent完成了约100万行代码的内部产品。零人工编码。工程师的角色不是写代码,而是设计agent运行环境、编写意图规范、管理反馈循环。
我们自己的实践也印证了这一点。Opus 4.5推出之后,我们公司不再允许程序员打开IDE写代码。所有开发工作由AI agent完成,测试也是AI自己跑。程序员的工作变成了:定义需求、审查结果、处理AI搞不定的边界情况。
IDE正在变成上一个时代的遗物,就像打字机一样。
当人类不再写代码,"程序员"这个词的含义就彻底变了。OpenAI把新角色叫做"Harness Engineering"(驾驭工程)——人类工程师是架构师,不是编码者。
设计环境:代码库的可读性、工具的完备性、观测层的完善程度——这些决定了AI agent能走多远。瓶颈不是AI能力,而是环境质量。
定义意图:用自然语言精确描述"我要什么"。这比写代码更难——因为你必须同时理解业务逻辑和技术约束。
审查产出:AI写完了,你要判断:对不对?安全不安全?符不符合架构?
这就是悖论所在:你不需要写代码了,但你比以往任何时候都更需要看懂代码。
2026年2月,斯坦福法学院CodeX项目发表了一篇文章:"Built by Agents, Tested by Agents, Trusted by Whom?"(代理构建、代理测试、谁来信任?)
文章分析了StrongDM公司的"软件工厂"模式——代理写代码、代理测试、人类只设计规范和监控分数。没有人类审查任何一行代码。
Goodhart定律陷阱:代理优化的是测试分数,不是真实用户需求。StrongDM遇到过代理直接写return true来通过所有测试——测试全绿,但代码什么都没做。
循环验证问题:写代码的AI和测试代码的AI是同类系统,共享同样的盲点。就像让一个人自己批改自己的作业。
技能萎缩:当人类停止读写代码,出现故障时将无人能理解原因,更无法修复。
斯坦福的结论:最深层的问题不是AI写的代码质量好坏,而是失败时没人知道为什么,也没人有能力修复——因为读代码的技能已经消失了。
写代码的AI和测试代码的AI,共享同样的盲点
1970年代计算器进课堂时,教育工作者担心学生丧失心算能力。结果:心算确实退化了,但数学思维没有——因为计算器只替代了"计算",没有替代"思考"。
AI编程不同。它不只是替代了"写代码"这个动作,它同时替代了"思考代码"这个过程。
当你用计算器算3×7,你知道答案应该是21左右——你有基本的数感来验证。但当AI生成了一个500行的微服务,你怎么验证它是对的?你甚至不知道"对"长什么样。
Anthropic的研究证实了这个担忧:使用AI辅助的初级开发者,测验得分比手写代码的低17个百分点。更可怕的是:METR研究发现,使用AI工具的开发者实际慢了19%,但自认为快了20%。
而且别忘了,大模型本身就是一个"天才与白痴的混合体"——上限经常超过博士,下限有时不如幼儿。它可以写出优雅的架构,也可以写出看起来完美但逻辑全错的代码。如果你没有"数感",你根本分不清它什么时候是天才、什么时候是白痴。
这不是"心算退化"的问题。这是"数感消失"的问题。
强在"心智模型"。没有AI的时代,你写的每一行代码都经过自己的大脑。你对整个系统有完整的内部表征——知道数据怎么流动、改了这里那里会怎样。这个心智模型,是你判断AI产出是否正确的基础。
强在"调试直觉"。代码出了问题,古法程序员能凭直觉缩小范围。这种直觉来自无数次亲手调试的经验。AI时代的开发者没有这个经验积累。
强在"对复杂性的敬畏"。亲手写过大型系统的人,知道复杂性是怎么失控的。而从未亲手写过代码的人,容易低估复杂性——因为AI让一切看起来都很容易。
古法编程培养的不是"写代码的能力",而是"理解代码的能力"。前者已经不需要了,后者比以往任何时候都更需要。
第一层:系统思维(最基础)。理解组件之间怎么通信、数据怎么流动、故障怎么传播。OpenAI的经验:环境质量决定了agent能走多远。设计好的环境,需要系统思维。
第二层:意图表达能力(新核心技能)。精确表达意图比写代码更难——你必须同时理解业务逻辑和技术约束,然后用自然语言把两者桥接起来。
第三层:批判性审查能力(安全底线)。45%的AI生成代码含安全漏洞。你需要知道该在哪里质疑、质疑什么。如果没有人能审查,系统就是在裸奔。
第四层:故障诊断能力(最稀缺)。当系统崩溃时——而系统一定会崩溃——谁来诊断?这需要那种"古法编程"培养出来的深度理解力。
这四层能力,从下到上越来越稀缺,也越来越值钱。
人类与AI的协作:不是替代,是桥接
既然公司不会给你时间练基本功,那AI时代的思维能力应该在什么时候建立?
有一个有趣的类比:大模型的训练过程,和人类的教育过程高度同构。
预训练 = 大量阅读(小学)——海量输入,建立对世界的基本认知
SFT监督微调 = 大量做题(中学)——在有监督的环境下,学会规范化思维
强化学习 = 专家引导的开放课题(大学)——在真实问题中,通过反馈迭代提升判断力
按这个框架,AI时代的思维能力建立也应该分阶段:
小学/中学(预训练):建立"数感"。不是学编程语法,而是理解逻辑、因果、系统是怎么运作的。数学、物理、甚至搭积木和拆玩具,都是在建立底层认知。
大学(微调):建立"代码感"。通过计算机科学基础课理解数据结构、算法、操作系统原理。完全可以用AI辅助学习,但核心是建立心智模型。
工作后(强化学习):直接进入AI编排模式。在实战中通过和AI协作来持续强化判断力。
思维能力的建立窗口在学校,不在公司。
但现实是什么?我们身处AI时代,却用工业时代的方法培养农业时代需要的人才。学校还在教"怎么写for循环",而不是"怎么理解一个系统"。考试还在考"记住了多少语法",而不是"能不能定义一个好问题"。
AI时代,没有人是老司机,都是新人。教育体系需要重新定义"基本功"——不是写代码的基本功,而是理解系统、定义问题、和AI协作的基本功。
对新人:在学校阶段就建立心智模型。进入公司后直接用AI编排模式工作,但保持好奇心——遇到AI生成的代码,多问一句"为什么这么写"。
对团队:保留至少一个"能读懂全部代码"的人。95分以上的人依然重要——当AI产出80分的代码时,你需要有人能把它提到95分。
对教育:计算机科学教育不应该教"怎么写代码",应该教"怎么理解系统"。代码只是培养思维能力的手段,不是目的。
这个问题本身可能就问错了。
2025年11月18日,Cloudflare全球服务中断。程序员们想把系统bug日志扔给ChatGPT分析——结果发现ChatGPT也用了Cloudflare,打不开了。想用AI修bug,但AI本身就是bug的一部分。这个死循环,是对"完全依赖云端AI"最讽刺的注脚。
但这个故事还有另一面。我最近在本地台式机上运行了最新的Gemma 4和Qwen 3.5——完全本地化,不需要网络,不依赖任何云端服务。它们可以分析代码、解释逻辑、定位bug,速度和质量都已经够用了。
大模型像生命一样,正在渗透到每一个环境。不只是云端的API,而是你的台式机、笔记本、甚至未来你的手机里,都会有一个能读懂代码的AI。智能无处不在。
所以"谁来看懂代码"的答案,不是"最后一个古法程序员",而是人类+无处不在的AI。新的工具会带来新的环境,新的环境会达成新的平衡。
凯文·凯利在《失控》中说过:所有有生命的系统看起来都不稳定。蜂群看起来混乱,但能找到最优路径。AI编程的生态也是如此——现在看起来很"失控",但这种不稳定,恰恰是新平衡正在形成的信号。
但有一个前提:人类不能完全退出这个系统。AI是放大器,不是替代器。你需要有足够的认知基础,才能和AI进行有效的对话。真正需要培养的不是"写代码的能力",而是"和AI协作理解系统的能力"。这是AI时代的新素养。
工具在不断变化,人性的变化则是缓慢的。我们不用担心。每一次技术革命都会打破旧的平衡,然后建立新的平衡。从印刷术到计算器,从互联网到AI——人类从来没有因为工具太强而退化,只是换了一种方式进化。
这一次也一样。
进化三部曲 · 张震
参考资料
斯坦福法学院CodeX《Built by Agents, Tested by Agents, Trusted by Whom?》(2026年2月)
OpenAI《Harness Engineering: Zero Manual Code》(2026年)
Boris Cherny《The End of Code-First Development》(2026年)
Anthropic/METR《AI辅助开发者技能影响研究》(2026年)
Fortune《In the Age of Vibe Coding, Trust Is the Real Bottleneck》(2026年4月)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-13
Harness:AI落地的隐藏环节,为什么你调不好AI?不是模型不行,是少了这一环
2026-04-12
什么场景该用 AI Native?
2026-04-11
那个“爱马仕”,想拯救“智障”小龙虾
2026-04-10
重磅!Anthropic官方Harnerss发布了!
2026-04-10
刚刚,100 美金的 ChatGPT 来了
2026-04-09
技术教科书:顶级开发团队设计的Harness工程项目源码什么样
2026-04-09
Anthropic 官方 Harness 发布:全面解读 Managed Agents
2026-04-09
SDD-RIPER 团队落地指南:如何让整个团队在一周内跑通大模型编程
2026-01-24
2026-01-26
2026-01-23
2026-03-31
2026-03-13
2026-01-14
2026-01-21
2026-02-03
2026-02-14
2026-02-03