微信扫码
添加专属顾问
我要投稿
探索AI在代码审查中的应用,从构想到快速落地的实践案例。 核心内容: 1. 团队对AI技术在研发流程中应用的探索原则 2. 利用AI优化代码审查流程的项目进展和成果 3. 行级评论方案的实施过程和关键环节拆解
年初,随着 DeepSeek 的爆火出圈,相信大家一定脑暴过各种利用 LLM 的创新应用场景。
在这场技术浪潮中,我们团队内部也在积极规划探索 AI 能在现有研发流程中带来哪些助力,但同时考虑到目前行业飞速进化的趋势,大致明确了几个探索原则:
基于以上原则,在寻找具体切入点时,我们注意到团队内部长期以来对代码审查(CR)的规范统一性、审查深度及人力投入等方面存在改进的呼声。鉴于此,我们决定尝试利用 AI,探索优化代码审查流程的潜力,期望在提升 CR 效率和质量的同时,也能在实践中积累 AI 应用经验。
简而言之:我们希望通过 小成本投入 的方式,利用 AI 技术优化 CR 流程并能有所沉淀。
基础功能搭建(可用阶段):
AI CR -> 评论反馈流程3 人日流程调优优化(提升阶段):
5-7 人日提示词工程优化(深化阶段):
64个 | |
150+ | |
2%(目前偏低但结合差评率,说明用户对 AI 审查结果的默认接受度尚可) | |
4% |
关于 CR 环节的现状问题,主要是规范统一、精力投入、审查力度上,此处不再赘述。主要还原一下项目的历程,侧重问题解决和过程思考。
在初始阶段,我们首先构想如何将 AI CR 无缝集成到现有开发流程中。当时考虑了以下几个方案:
| 独立平台方案 | CR 通过该平台进行 | |
| 报告输出方案 | MR 后为开发者提供一份 AI 审计报告 | |
| 行级评论方案 | MR 界面上提供行级别的 AI 评论 |
经过评估,最终选择了行级评论方案,该方案能够提供细粒度的代码反馈,同时保持开发人员熟悉的工作流程,避免多平台切换。
基本流程:
用户提 MR → 调用 LLM → 写入 MR 评论
首先需要解决 MR 事件通知与内容获取的问题。幸运的是,GitLab 提供了完善的 API 和 webhook 机制:
webhook 配置 Merge Request Event/projects/${id}/merge_requests/${mrId}/changes获取到对应的 diff 内容后,我们将其解析成包含行号、改动内容等的结构化数据,使 LLM 能更好地理解上下文。
? 为什么需要将 diff 结构化?
经过上述接口,我们能拿到实际的 diff 内容。虽然这部分内容可以直接提供给 LLM 处理,但会存在明显的不确定性:
@@ -1,7 +1,7 @@
class User {
- constructor(name, age) {
+ constructor(name, age, role) {
this.name = name;
this.age = age;
+ this.role = role;
}
}
将上述 diff 直接提供给 LLM 会导致无法明确确定需要评论的行。通过结构化数据处理,我们能够明确改动对应的新旧文件行数以及相关上下文,提高 AI 分析的准确性。
{
"file_meta": {
"path": "当前文件路径",
"old_path": "原文件路径(重命名时存在)",
"lines_changed": "变更行数统计",
},
"changes": [
{
"type": "变更类型(add/delete)",
"old_line": "原文件行号(删除时存在)",
"new_line": "新文件行号(新增时存在)",
"content": "变更内容",
"context": {
"old": "当前改动上下文",
"new": "当前改动上下文"
}
}
]
}
上述已经完成了改动内容的结构化封装,接下来需要将这部分内容拼接到对应的提示词,调用大模型来生成评论。LLM 调用是核心环节,我们综合考虑成本因素,决定使用公司内部已有的飞书 Aily 平台。
Aily)是一款全新的企业级智能应用开发平台,围绕着大语言模型(LLM)提供 AI 技能编排、知识数据处理、效果调优和持续运营能力,让用户可以高效的开发出专业的企业级智能应用,并一键发布到飞书、Web 等多个渠道,与企业业务系统深度集成,提升企业内部业务流转和客户服务效率。所以这部分工作,主要变成了基于 Aily 的流程编排和提示词调试(完整编排流程在下方)。
提示词设置原则:
结构如下:
# 角色
你是专业的审查专家xxxx
# 审查维度及判断标准(按优先级排序)
xxx
# 输入数据格式
输入结构如下:
{
"file_meta": {
"path": "当前文件路径",
"old_path": "原文件路径(重命名时存在)",
"lines_changed": "变更行数统计",
"context": {
"old": "原文件上下文",
"new": "新文件上下文"
}
},
"changes": [
{
"type": "变更类型(add/delete)",
"old_line": "原文件行号(删除时存在)",
"new_line": "新文件行号(新增时存在)",
"content": "变更内容"
}
]
}
其中:
- old_line:content 在原文件中的行号,为null表示新增
- new_line:content 在新文件中的行号,为null表示删除
- content:新增或删除的行内容
# 输出格式
1. 格式为:
[{"file":"文件路径","lines":{"old":"原文件行号(删除时存在)","new":"新文件行号(新增时存在)"},"category":"问题分类","severity":"严重程度(critical/high/medium/low)","analysis":"结合上下文的具体技术分析(200字内)","suggestion":"可执行的改进建议(含代码示例)"}]
需要注意行号处理:
- 新增内容:`lines.old=null`, `lines.new=变更的new_line`
- 删除内容:`lines.old=变更的old_line`, `lines.new=null`
- 行号必须精确到具体变更行
2. 输出格式为 JSON 字符串数组,内部结构必须完整,必须是完整且合法的json格式,除此之外不要输出多余内容
以上提示词的设计配合结构化的输出,能让AI生成的评论的准确性在95%以上(这里的准确性指的是精准评论到具体的代码行,不包括实际评论内容的准确性),同时生成结构化的评论内容,方便解析和使用。
而评论写入直接采用 GitLab 提供的 API 写入即可:
/projects/${id}/merge_requests/${mrId}/discussions用户提交 MR → webhooks 通知内部应用 → 解析diff内容 → 调用 aily 能力 → 生成 Prompt → LLM 分析 → 结构化LLM评论 结果 → 在原 MR 处提供评论
基于上述实现,第一个版本已经可以投入使用。接入非常简单:
webhookLLM 分析AI 评论将直接显示在 MR 界面上效果如下:
0.1 版本如期上线,但正如快速迭代理念所预期的,问题也随之而来。我们迅速发现了以下核心问题:
| 过度评论 | |
| 质量不足 | |
| 无反馈机制 | |
| 规则单一 |
问题根源:
GitLab MR 的 webhook 在 MR 有任何修改时都会触发(包括修改描述、提交新 commit、关闭、合并)High、Medium、Low)全量输出,导致不重要问题也被显示解决措施:
MR 时的全量改动,后续 commit 支持增量 CR// action 枚举,只需要处理 open 和 update 并且实际有commit提交的 操作
const actionEnum = ['open', 'update', 'close', 'reopen', 'merge', 'unmerge', 'approved', 'unapproved'];
// base_sha, start_sha, head_sha 需要从 mrChangeInfo 是为了后续 comment 的时候,使用正确的 diff 信息
{
base_sha: mrChangeInfo.data.diff_refs.base_sha,
start_sha: mrChangeInfo.data.diff_refs.start_sha,
head_sha: mrChangeInfo.data.diff_refs.head_sha,
}
# 输出要求
1. 严重程度标准:
- Critical:导致系统崩溃/数据损坏
- High:功能异常/安全漏洞
- Medium:潜在风险/代码异味
- Low:样式问题/不影响功能
问题根源:
AI 分析缺乏自我验证和纠错能力上下文优化: 提示词中携带更丰富的上下文信息
多轮 LLM 分析: LLM 评论流程增加多轮校验,渐进式深度分析
主要目的:
同时将 Aily 整体编排流程拆分,将提示词定义为以下部分:
PromptRole(按 MR 内容动态生成)PromptBizRules(按 MR 内容动态获取对应业务审查规则)PromptInputFormatPromptReviewDetails(按 MR 内容动态获取对应业务审查规则)PromptOutputFormatPromptOutputRules具体设置:
完整编排流程:
解决措施:
AI 评论处提供一键反馈功能AI 评论调优拓展现有编排流程,将业务规范开放到多维表格,用飞书文档来沉淀业务生成规范和定制化的审查规则。
解决措施:
Aily 平台根据业务规范动态合成提示词AI 审查标准经过两个版本的快速迭代,我们成功实现了最初的目标:以小成本投入优化代码审查流程。具体表现在:
10人日投入,实现了64个应用的接入,日均150+评论,已发现 50+ 有效问题GitLab API、飞书Aily等)快速构建MVP思想贯穿整个开发过程经过对业界主流AI CR实现方案的全面调研(如腾讯AICR、字节跳动BitsAI-CR等),我们对未来方向有了更加务实的认识:
我们发现,要构建一个企业级完整的AI CR系统需要大量资源投入:
对于中小团队而言,投入大量资源去构建类似腾讯、字节等大厂的全面系统性价比不高。我们更倾向于:
我们观察到目前AI CR可能的定位:
我们认为,在当前阶段, 辅助人工CR 是更务实的定位,理由是:
CR仍有较大缺口我们注意到底层能力迭代非常快速:
IDE(如Cursor 0.49版本)已开始内置代码审查功能OpenAI、Anthropic等不断推出更强大的编程辅助功能因此,我们计划:
IDE插件)协同合作AI辅助代码审查是AI融入开发流程的一个切入点,但绝非终点。通过这个项目,我们不仅验证了AI在特定场景下的实用价值,更积累了宝贵的实践经验。正如我们的核心原则所示,技术发展迭代太快,重要的是保持行动力,不断尝试,在实践中找到最适合自己团队的应用方式。
在未来,我们将继续秉持"小投入、快迭代、重实效"的理念,探索AI与研发流程深度融合的更多可能性。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-07
2025-08-25
2025-08-23
2025-10-12
2025-08-11
2025-09-07
2025-10-14
2025-09-04
2025-09-09
2025-08-18