微信扫码
添加专属顾问
我要投稿
快手如何用AI实现研发效能的跃迁?从个人提效到组织提效的突破性实践。核心内容: 1. 快手AI研发三阶段演进路径:平台化、数字化到智能化 2. 突破性发现:个人编码效率≠组织效能提升的关键矛盾 3. 系统性解决方案:L1到L3的AI研发范式升级路线
背景:了解快手的研发效能基建
Step1:依托工具推广,实现流程标准化
实践过程
主要难点
Step2:建设效能度量体系
Step3:效能问题分析与改进
Case1:通过「研发活动在线化率」分析,深挖出架构不合理问题
Case2:通过「需求积压率」分析,驱动业务优化需求评审流程和节奏
结果
Step1,导入:推广工具,让开发人员用起来
Step2,优化:推广实践,提升编码效率
遇到的核心问题 |
解决前 |
【生成效果】AI不懂快手的系统和代码,生成代码效果不好。 |
解决前:用户本地保存大量的Prompt或持续把规则配置到编程工具中,但效果均不理想。 解决后:让模型懂快手的系统 自研了代码大模型KAT-Coder,定期注入快手真实的代码和研发过程数据,内置在Kwaipilot中,提升内部场景效果。 |
【生成效果】AI不懂快手的业务语义、开发规则等知识,生成代码效果不好。 |
解决前:用户本地保存了大量的解释说明,作为补充说明补充到输入中。 解决后:让Kwaipilot更懂快手的业务和编程模式 建立业务&研发知识库,Kwaipilot支持读取和应用。 |
【用户体验】后端、客户端研发习惯和体验还在原有IDE上,无法直接用原生AI IDE。 |
解决前:后端、客户端主要研发工具还是JETBrains、Android Studio、XCode,因此会同时开着Cursor或ClaudeCode混用。 解决后:让Kwaipilot用一套能力多场景情况,覆盖各种研发场景
|
【开发场景】除了业务需求外,还有一些做Demo、设计稿转码等场景,主流AI IDE未覆盖。 |
解决前:多个工具混用,比如用Cursor或ClaudeCode生成代码,用内部自建工具画原型或设计稿生成代码。 解决后:让Kwaipilot同时具备类似loveable和Manus的能力
|
Step3,固化:将AI编码能力变为组织机制
既然已经验证了AI编码对效率提升的有效性,且已经有了固定的工具、方法、实战课程,接下来就是如何把这些习惯固化在组织的日常工作中,让所有研发人员大范围的升级开发技能。我们主要用了3个措施:
1. 增量人员:强化入职培训,从源头培养AI-Native开发者。
2. 存量人员:牵引AI在团队、研发流程、个人工作中渗透。
3. 文化影响:通过活动运营、奖励机制激发更多同学拥抱AI。主要是一些自下而上能让更多一线研发被看见。
通过挑战赛,让一线研发同学感受AI编程的高效和快乐
通过数据自动识别AI开发高手
结果
持续的推广,在编码场景上,80%+的开发人员都开始用AI辅助编码,如下图所示,可以看到AI代码生成率每月线上增长。
同时,在非编码场景中,我们在研发流程中建设的单点Agent能力也开始在研发平台中陆续透出,用AI能力辅助部分研发活动提效。
最终,我们对研发各阶段的AI提效情况,做个一个完整的评估:
最后顺便提一下,目前大家在业界看到的“代码生成率”指标,包括各大厂披露的、AI编程工具自己度量,基本都是不置信的,要么只统计了编程工具里的生成的代码和提交的代码作为分子分母,要么是在分母上做了一些限定(比如某些场景下不纳入分母统计)。但因为我们会用这个指标作为公司级AI编码推广的目标,因此对度量的精度和置信度要求非常高,一路“踩坑”过来后,最终使用了最严格的度量方法:
分母:新增代码行,统计公司内所有最终入库的Commit中的代码行。
分子:将分母的每一行代码,和AI生成的代码进行比对,如果编辑距离<50%(相似度高),则纳入统计。
这套实现无法在AI编程工具端实现,需要由公司内部的代码平台、AI编程工具一起提供数据,并在离线数据层进行精确的计算,计算分母中每一行新增的代码和分子中AI生成代码的编辑距离,符合要求才能被统计为分子。
问题
经过1年多的努力,从数据上看,研发各环节效率都在提升,尤其是编码环节提升很大。在AI热潮下,我们也看到很多开发人员、团队Leader都在分享自己效率提升数据和案例,按道理来说,公司整体的研发效能应该提升了吧?我们从全局视角,分析了一个核心业务线的客观研发数据,结果发现了非常反直觉、令人困惑的情况:AI代码生成率持续在增长,但需求交付效率基本不变。
为什么呢?我们做了深入的调研,排除了少量个例,观察总结了大多数普遍使用“AI辅助编码”的开发人员的用法和客观研发数据,发现在真实业务交付场景中,只用“AI辅助编码”这种开发方法,对需求的开发周期影响非常有限。主要原因如下:
开发方法:AI 辅助编码 |
实际情况 |
|
编码效率提升10%-20%,主要提升点:
但不足以影响开发周期缩短,主要原因:
|
洞察
不过调研中也有额外收获,我们发现在真实的业务需求开发中,已经存在着3种不同的开发方法,对效率提升的程度有着根本性的差异。如上图所示。我们把三种开发方法总结出来做了一个定义:
1. AI辅助编码:在标准开发流程的基础上,在编码环节,依托AI编码工具,使用各种AI生成代码的技巧,提升编码效率。如果熟练掌握,可以缩短一部分编码时间,但如上文中的调研归因,由于只是节省了碎片化的编码时间,联通、测试、需求评估等不变,因此对整体的开发任务缩短帮助不大。
2. AI辅助开发:在研发全流程的各环节均使用AI辅助的方式,提升整体开发效率。需要由人把需求拆分为多个开发任务,不同开发任务调用不能的AI能力来完成,再由人来审核和优化产出物。由于从技术设计到编码到测试等各环节都可以节省时间,因此加总起来后,可以将研发任务的开发周期缩短30%左右。
3. AI协同开发:在某些需求开发中,通过完全用自然语言和AI交互的方式(类似业界比较流程的说法Spec/Vibe开发)完成需求交付,提升需求端到端交付效率,需求整体的开发周期可以缩短40%左右。
举个例子说明,会更容易理解三种开发方法对效能提升程度的影响。例如1个需求分解出2个开发任务,1个前端、1个后端,其中前端工程师接到开发任务,正常评估从设计、开发、测试、合入主干需要5天,其中编码1天:
如果用「AI辅助编码」,他自己的评估还是5天,只不过相比以前,可以节约一部分时间做一些杂事,但到不了可以接更多开发任务的程度。
如果用「AI辅助开发」,他可以整体节约1.5天,只用3.5天就可以完成。但需求整体能不能快,还需要看另一个接任务的同学,以及对应的联调、集成测试、发布的周期。
如果用「AI协同开发」,首先必须改变协同模式,比如2个人均使用这种模式开发或者1个人全栈的做,假设1个人全栈独立做要10天,且不需要和别人集成&验证,开发周期可以缩短到6天左右。
有了3种开发方法的定义,我们就能很容易的评估出理想和现实间的差距,我们取了1个业务线3个月所有已交付的需求进行分析,发现50%-70%的需求,在不改变原有开发流程、规范、人员协同模式的情况下,可以使用提效幅度更大的「AI辅助开发」模式。此外,还有2%-10%的需求,可以更激进的使用「AI协同开发」。但实际情况上,团队里只有不到10%的人在使用「AI辅助开发」或「AI协同开发」开发方法,有对AI开发特别感兴趣的校招生,也有积极拥抱AI喜欢自己探索的资深开发者,但由于人数过少,对团队整体研发模式的变化无法起到带动的作用。
具体实施上整体有3步:
Step1,AI x 效能平台:建设能同时支持多种研发模式、可自进化的智能研发平台
如上图所示,有4个关键点:
下面重点介绍下为了支撑组织级研发范式跃迁,Flow这种子产品形态的独特优势。
1. 从需求交付视角看:同一个需求,开发者可以结合自身对AI的理解和开发技能的掌握,在同一种产品形态上选择不同开发方法。
标准开发 / AI辅助编码:工作流中所有节点,完全由人工来完成和推进。其中“编码”节点会跳转到IDE中,可以用AI辅助编码。对用户而言,收益相对来说最小,和原来相比,由于Flow的每个节点内嵌或自动兼容了各工具平台的功能,因此仅节约了用户平台跳转的切换与学习成本。用这种模式交付的需求,会被度量为L0/L1级需求(AI辅助(Copilot))。
AI辅助开发/AI协同开发:工作流中多个关键节点均有AI完成,人进行结果审查。多个节点之间的上下文可以有效传递,比如AI完成需求分析、技术设计后,产出的AI友好结构化文档可以自动传递到AI编码节点,以提升代码生成的准确性。有些节点暂时无法由AI完成的,比如“提测”节点,仍然由人来操作。用这种模式交付的需求,会被度量为L2级需求(AI协同(Agent))。
AI自主开发:部分需求可以实现全流程AI完成,人只需要在需求上线前或上线后进行审核。这种模式下,整个Flow是全自动运行的不需要人工参与。用这种模式交付的需求,会被度量为L3级需求(AI自主(Agentic))。
2. 从开发者视角看:整个过程依然非常丝滑和简洁,下图是一个需求交付中Flow的整个工作过程,大家可以感受一下:
Step2,AI x 效能实践:以需求为中心,导入「AI研发模式」,实现需求端到端提效
支撑「AI研发模式」的方法和平台都有了,这个阶段的关键是如何把这些作用在团队日常交付的需求上。我们分3个层面落地:
个人级实践:导入「AI辅助开发 / AI协同开发」开发方法,并树立标杆
首先人的开发方法要变化。我们重复了第一阶段“优化”与“固化”的实践,让大部分研发人员从“AI辅助编码”的方法升级成“AI辅助开发”,让小部分专业能力更强的人员,选修“AI协同开发”方法。我们同样通过实战课程、典型案例、人员培训等手段,对人的开发方法进行升级。
当然,即使这样,从数据上看,个人用AI提效的效果还是存在两极分化的情况。我们对2025年6月-12月的数据进行了分析得到如下结论:
团队级实践:导入「AI研发模式」,重塑流程、分工,提升所有需求的交付效率
通过管理导向、各种活动的形式,鼓励团队Leader主动带领团队进行探索,最终沉淀出了一套适合团队的核心实践:
经过大量的验证,我们的标杆团队(<50人规模)无论在AI转型后的业务感知上,还是客观数据上,均能达到比较优秀的水平,见下表:
业务线级实践:大规模研发团队,系统性升级AI研发范式,带来效能提升
以主站技术部为例,从2023年到2025年,从平台化到数字化再到精益化,2025年开始步入深水区,2个新挑战浮出水面:
1. 传统的流程、工具优化手段带来的提效收益,边际效应持续减小。
2. 业务的规模与复杂度持续提升。
因此开始探索能否把握AI爆发的机遇,把传统研发流程升级到“AI研发范式”,进而打开组织级效能跃升的新空间。核心实践:
实践1:Top-Down,战略驱动
明确战略导向:主站技术部提出了“AI First”的战略思想,鼓励全体员工开展工作之初,优先将AI作为核心驱动力,加速技术创新、优化业务流程、深度融合AI技术,为产品与服务注入新活力和新可能性。
发布白皮书:将战略导向具象化为思考、方法与规划,为全员提供明确指引。
成立重点项目:在研发领域,成立了AI DevOps项目,统一设计解决方案并推广实施。
实践2:AI x 效能实践
Step1:将需求分级,按需求AI研发成熟度定义:
L1 AI 辅助(Copilot):人主导,AI主要在编码环节提供辅助。
L2 AI 协同(Agent):人和AI更深度的协同完成需求开发,在研发全过程中,更深度分解任务给AI完成,人进行修改、调整、确认。
L3 AI 自主(Agentic):人类似产品经理,把需求澄清清楚并交给AI来完成,并进行最后的验收。
Step2:分级实施
让所有需求达到L1级(AI 辅助,Copilot):推广个人级实践,依托Kwaipilot工具实现全员掌握,最终覆盖所有需求。
让大部分需求能持续升级到L2级(AI 协同,Agent):开展团队级实践,从试点到推全,重塑流程、分工。
小部分需求探索能达到L3级(AI 自主,Agentic):圈选出颗粒度小且独立的需求,构建全技术栈/职能端到端交付链路,通过全栈、跨栈,减少协作节点,进而形成效率跃迁,最终达成AI自主交付。
Step3:项目化推进
成立组织级重点项目,Top-Down实施。
实践3:AI x 效能平台。基于需求全流程构建AI能力,逐一“点亮”能力并规模推广落地:
构建AIDevOps能力矩阵与建设路线图:基于研发效能白盒化,分析交付流程中各原子环节的人力投入比重、AI能力建设ROI,形成决策建设哪些AI原子能力。
AI原子能力建设:与研发线共建交付流程环节内的AI原子能力 20+,研发流程环节覆盖超过 60%,从需求准备到发布运维各环节。
实践4:AI x 效能度量:建设AI研发成熟度模型,可将需求分级度量(L1、L2、L3级需求占比),牵引各级实践落地。
经过1年多的项目实施,最终探索出了一条组织级的AI研发范式升级路线,从数据上也能看出明显的变化:
Step3,AI x 效能度量:建设「AI研发成熟度模型」,接入原有效能度量体系,驱动需求持续转变为“AI研发模式”
最后在效能度量上一样也需要升级,基于效能实践的探索,我们配套建立了「需求 AI研发成熟度」模型(如下图所示),用于度量一个需求在研发过程中的AI使用程度,这样我们就可以按L2&L3级需求的比例,来牵引实践过程,也可以专门度量L2&L3级需求的交付周期的变化,来印证提效结果。
结果
再回到全局视角,从数据上看,如果只看“AI代码生成率”指标,可以明显看到2025年6-11月出现了一个大幅提升。实际上,在智能化1.0阶段,这个指标达到24%+基本已经是极限了,当我们开始实施智能化2.0后,才开始进一步拉升。
当然,我们在内部的数据观测上,其实已经不再看“AI代码生成率”指标了,它只是一个单点的过程指标,片面且孤立。我们现在有了更直接的度量指标。从过程上,我们观测多少需求被采用全流程AI研发模式交付,从结果上,我们直接观察需求的交付效率变化。
L1、L2、L3级需求占比:有多少需求的AI研发程度可以达到L1、L2、L3的阶段。
下图是最先完成 AI 范式转型团队的数据变化,可以看到 L2&L3 级需求占比达到 20.34%,需求交付周期下降 58%,2 个指标呈现明显的正相关性。
最后也总结下我们一年来的实践心得,目前看完全印证了《2025年DORA报告:人工智能辅助软件开发现状调查报告》中的洞察:
“从 DevOps 到 AI 辅助开发:AI是“透视镜”与“放大器”
1. AI是“透视镜”
在协同良好的组织中(如流程清晰、数据打通的团队),AI 能使 DevOps 效能再提升 25%。
在架构松散的组织中,AI 会暴露流程断点、数据孤岛等隐性痛点。
2. AI 是 “放大器”
如同亚马逊通过微服务转型释放 DevOps 价值,AI 辅助开发也需重新设计工作流程(如 “AI 提案 — 人类决策” 闭环)、角色分工(如专职提示工程师)与治理机制(如 AI 代码审查标准),否则无法释放真正价值。
对于大型组织的研发效能提升,AI不是“万能药”,而是“透视镜”和“放大器”,它不会自动修复组织问题,而是先把组织历史积累的长板和短板一并透视出来,再全部放大。幸运的是快手的研发效能实践一直保持客观、务实的风格,先把地基打稳(平台化 / 数字化 / 精益化),再通过在研发各环节建立AI提效能力,先一边落地一边充分验证对个体的提效情况,再体系化的推进组织级AI研发范式升级。最终发现,AI在传统研发效能基建的基础上,像放大器一样增幅了每个环节,为组织带来研发范式级的跃迁。
如下图所示,我们基于张乐老师的“研发效能黄金三角”框架之上做了升级,能更清晰的表达出快手的实践框架:
最后,再把镜头拉远,回到宏观视角看——2025年我们所做的种种努力,不过是这场AI变革的开端。由AI驱动的生产力跃升和生产关系重塑,正在重新定义软件开发的每一个环节。这不是一场短跑,而是一场马拉松,不是一次技术升级,而是一次范式革命。
快手已经在这条路上积累了宝贵的经验,但真正的挑战和机遇还在前方。未来已来,一起共同探索AI x 研发效能的无限可能吧!
本文作者
快手研发效能中心:秦巍(研发效能解决方案 & 智能工具产品负责人)
写在最后
【推荐阅读】
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-10
我给OpenClaw装上了任务系统,像人一样领任务干活
2026-02-09
这个 AI 操纵手机的 GitHub 项目,支持 OpenClaw 干不了的活。
2026-02-06
OpenClaw 云端部署全攻略:七大平台深度对比与实战指南
2026-02-06
你的AI同事真的要来了!刚刚,OpenAI推出全新平台Frontier:主打企业Agent落地
2026-02-06
爆火Browser-Use实战:让AI替你操作浏览器,爬虫/自动化填表一行代码搞定
2026-02-06
Hi,你的一号员工 WorkBuddy,今日上岗内测!
2026-02-06
OpenAI发布Frontier:一个企业级的Agent构建平台,把 AI 变成企业里的“数字同事”,那么OpenAI Frontier能做什么?
2026-02-05
用这个SKILL分分钟巡检一万个PG,DBA真的要下岗了
2026-01-01
2026-02-05
2026-01-05
2026-02-06
2025-12-23
2025-12-31
2025-12-18
2025-12-30
2025-11-30
2026-01-13
2026-02-06
2026-01-27
2026-01-08
2025-12-29
2025-12-28
2025-12-21
2025-12-16
2025-08-20