免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

ASR+LLM+RAG视频内容识别全方案

发布日期:2025-12-26 20:24:17 浏览次数: 1514
作者:转转技术

微信搜一搜,关注“转转技术”

推荐语

ASR+LLM+RAG技术方案,精准解决视频内容识别难题,提升广告植入与竞品分析效率。

核心内容:
1. 传统方案痛点与新技术架构设计
2. 分层处理流程:ASR转写、文本预处理、精准匹配与模糊检索
3. 知识库构建与LLM在语义修复中的应用

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

1 引言:技术背景与核心挑战

在视频内容爆发式增长的当下,品牌广告植入场景日益复杂,如何快速精准判断推广品类,成为转转内容运营、竞品分析的核心需求。当前传统方案主要依赖关键词匹配与规则引擎,面临三大技术痛点:

ASR 转写准确性不高,输入数据质量低下

产品表述异构性

模型泛化与迭代能力弱

本文提出基于 “ASR+LLM+向量知识库” 的技术方案,通过分层处理、语义修复、历史常见词匹配、知识检索融合,解决上述痛点,实现推广品类的精准识别与自迭代优化。

2 技术架构设计

[视频语音输入] → [ASR转写层] → [文本预处理层] → [精准匹配层] → [模糊检索层] → [识别结果输出]
                                                ↑                            ↓
                                         [映射case反馈]     ←          [人工审核反馈]

2.1 各模块核心功能与技术选型

2.1.1 ASR 转写层

语音输入 → [降噪预处理(远场降噪 + 双声道分离)] → [语音转写]  → 原始文本输出

● 功能:将视频语音流转换为原始文本

● 技术选型:采用 ASR 引擎,配置 “远场降噪”“口语化清洗” 参数

2.1.2 文本预处理层

ASR 原始文本 → [语义纠错(错字 / 口音修正)] → [语序规整(如 “苹果手机”→“手机苹果”)] → [字段校验(过滤无核心信息文本)] → 预处理结构化文本
  • 功能:基于LLM对ASR文本的语义修复,修正上下文文逻辑错误(如“手机苹果 IPHONE15”→“手机苹果 iPhone 15”)

2.1.3 精准匹配层

● 功能:实现标准化文本与已知产品信息的精准映射,分为两级匹配:

○一级匹配:基于 MySQL 存储的标准产品库(字段包括 “产品 ID、标准型号、品类、品牌”),采用 “全量字符串匹配 + 前缀匹配” 策略,命中则直接输出品类结果;

预处理文本 → [全量字符串匹配(标准型号完全命中)] → 命中则输出品类

○ 二级匹配:基于 人工历史确认 库(存储 “错误表述 - 标准型号” 映射关系)进行匹配,ASR文本修复后仍有错别字问题(如“手机华硕11U”→“手机华硕 ZenFone 11 Ultra”)

预处理文本 → [错误表述映射(如 “米 14U”→“小米 14 Ultra”)] → 命中则输出品类

2.1.4 模糊检索层

预处理模糊文本→ [文本向量化]  → [余弦相似度检索(Top-10 结果)]  → [LLM 判断映射匹配(匹配型号 + 品类)] → 识别结果输出

● 功能:解决未命中精准匹配的模糊表述识别,核心技术为知识库搭建:

○ 知识库构建:采用向量数据库存储产品信息,将 “标准型号” 转换为向量嵌入;

○ 检索逻辑:将预处理后的模糊表述(如 “某品牌 14 寸笔记本”“米 14U”)转换为向量后,采用 “余弦相似度排序 + Top-3 结果筛选”,结合 LLM 生成标准化匹配结果;

2.1.5 常见映射case 闭环模块

识别结果 → [人工审核(错误案例标记)] → [错误纠正] → [自动入库(常见case映射)] → [同步至预处理层(修复词典更新)] → 效果监控(错误复发率统计)

● 功能:实现错误案例的回收与复用,流程包括: 

○ 人工审核:通过轻量化平台完成 “错误表述 - 标准型号” 标注,支持批量审核与规则配置 

○ 自动入库:审核通过的案例自动同步至【常见case映射库

3 关键技术难点与解决方案

3.1 单 LLM 节点拆分:降低负载与提升准确率

问题:传统方案采用单 LLM 节点处理 “语义修复 + 产品提取 + 识别”,导致上下文过长模型注意力机制分配失衡、准确率下降

解决方案:节点拆分,将原单节点拆分为 3 个独立模块,各模块专注单一任务:

● 文本修复模块:仅处理 ASR 文本的错漏修正

● 产品提取模块:基于LLM从修复后文本中提取疑似产品关键词 

● 结果生成模块:结合精准匹配与检索结果,生成标准化品类识别结果

3.2 知识库检索优化:提升模糊表述召回率

问题:模糊表述(如 “米 14U”“某品牌扫地机器人”)因信息不全,传统关键词检索召回率低下 解决方案:知识库增强+检索策略优化

知识库增强:在标准产品信息基础上,补充“常见错误表述”“产品简称”“品牌别名” 等维度,如 “小米 14 Ultra” 补充 “米 14U”“小米 14 超” 等表述;

检索策略优化:采用 “向量检索 + 关键词过滤” 混合策略,先通过向量检索获取 Top-10 相似结果,再基于关键词(如品牌、型号数字)筛选,示例:

● 模糊表述:“米 14U”

● 向量检索 Top-3:“小米 14 Ultra”“小米 13 Ultra”“红米 14 Pro” 

● 关键词过滤:基于 “米”(品牌别名)、“14”(型号数字)、“U”(Ultra 简称),最终匹配 “小米 14 Ultra”; 3.3 LLM 参数优化:精准调参提升识别稳定性

3.3 LLM 参数优化:精准调参提升识别稳定性

解释:LLM 的温度、重复惩罚等参数直接影响文本修复、产品提取、知识库检索结果生成的准确性,不同任务阶段需针对性调整,避免 “过度创作”“重复冗余” 等问题。以下为适配本场景的参数配置表:

应用场景
核心目标
温度
Top-K
Top-P
长度惩罚
ASR 文本修复
精准修正错漏,保留品类 / 品牌/ 型号等关键信息
0.2
20
0.7
1.1
产品关键词提取
无遗漏、无冗余提取核心产品信息
0.1
10
0.6
1.1
参数配置原理:
  1. 温度(temperature):决定输出的 “脑洞大小”,值越高越放飞发散(易出新奇 / 混乱内容),值越低越严谨保守(输出越固定),这里主要是防止文本提取时输出过多冗余内容,如:"小米 14 Ultra" 输出为 "文本中提到的机型是 小米 14 Ultra ..."
  2. Top-K:限制模型选词的 “候选池大小”,只从概率最高的 K 个词里挑,K 越小选择越集中(输出越确定);
  3. Top-P(核采样):按概率 “打包选词”,只从累积概率达 P 的最小词集里选,比 Top-K 更灵活,避免遗漏低概率但合适的词;
  4. 长度惩罚(length_penalty):调节输出的 “啰嗦程度”,值越大越简洁(甚至简短),值越小越详尽(可能冗余)

4 效果反馈

从准确度的维度来看,关键词匹配>历史常见case映射匹配>知识库匹配,随着常见映射case库的不断沉淀,在精准匹配 -> 二级匹配层会兜住更多数据,也意味着准确率也会随着数据的沉淀逐渐上升。

5 总结

本文提出的 “ASR+LLM+知识库” 方案,通过分层处理解决了视频广告推广品类识别的核心痛点,实现了 “精准识别 + 自迭代优化”,这套方案理论可应用到各类AI识别类场景,本质思考点是如何保证输入数据质量 -> LLM基础参数调优 -> 常见映射case沉淀反馈。


关于作者:

顾守业:转转新媒体业务Java开发工程师,主要负责新媒业务后端开发、Ai应用开发

王志远:转转大数据开发工程师,主要负责大数据相关基础平台建设


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询