免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大模型在小爱同学应用实践

发布日期:2025-09-30 13:02:33 浏览次数: 1511
作者:DataFunSummit

微信搜一搜,关注“DataFunSummit”

推荐语

大模型如何让小爱同学更智能?揭秘意图分发与理解的技术突破。

核心内容:
1. 小爱同学产品架构与大模型应用背景
2. 意图分发模型的技术难点与解决方案
3. 垂域意图理解与回复生成的实践效果

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
图片

导读 本文将介绍大模型在小爱同学产品上的应用,分享在意图分发、意图理解、回复生成等方面的实践。

主要内容包括以下几大部分:

1. 小爱同学概要介绍

2. 大模型意图分发

3. 大模型垂域意图理解

4. 大模型回复生成


01

小爱同学概要介绍

小爱同学是一个无处不在的 AI 助手。目前我们的产品线包括小爱建议、小爱语音、小爱视觉、小爱翻译和小爱通话,支持的设备涵盖了手机、音箱、电视以及小米汽车。

从 ChatGPT 发布,引爆了大模型浪潮,国内外公司纷纷发力开展大模型相关工作,我们也在思考如何让小爱同学用上并用好大模型。通过多轮讨论,我们达成共识,即利用大模型重新构建小爱同学。在大模型的支持下,产品体验和用户留存得到了大幅提升,活跃用户次日留存提升了 10%,中长尾 query 满足率提升了 8%。

图片
上图展示了小爱同学的整体架构,采用的是分而治之的思想。一个 query 来了之后,首先会有一个意图分发的大模型去做意图分发,将 query 分发到下游各个垂域的 Agent 上去,每一个垂域 agent 会有一个专门的意图理解大模型进行意图的理解。

02

大模型意图分发

1. 意图分发介绍

图片
意图分发的目的是判断用户 query 的意图归属,然后将 query 路由到指定的垂域 agent 上去做一个深度的理解。因为这个垂域的 agent 只关注于自己垂直的意图理解,整个模型迭代的难度会更小,迭代效率会更高,可以更好地满足用户的需求。

意图分发主要有两个难点:

(1)模型是需要知识才能正确理解的。比如打开设置 vs 打开空调,需要模型知道设置是系统项,空调是设备;

(2)耗时的要求高,小爱场景意图分发需要控制在 200ms 以内。

2. 大模型尝试

图片
首先做意图分发模型是需要知识,大模型通过了海量的数据预训练,我们认为它是具有知识的,自然而然想到就是用 prompt engineering,设定一个任务,然后直接请求大模型去输出这个用户请求中蕴含的意图。

实践中存在以下两个问题:

  • 大模型输出的意图跟我们预定义的意图不一致。

  • 大模型没有办法有效地遵循指令。在实践过程中发现,只有百亿级或者千亿级的模型才会遵循指令,更小的模型会倾向于直接去回答问题。

为了处理上面的问题,我们采用 few-shot 方法,在 prompt 中定义意图,并给一些示例 query。这种方法在一定程度上缓解了上述问题,但又带来一个新的问题就是输入的 token 太多。再加上对耗时的要求,Prompt engineering 的方法无法走通。因此我们尝试大模型的微调。
文章节选自《一本朴实无华的大模型电子书》电子书
识别下方二维码进群即可领取电子书
图片
图片

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询