微信扫码
添加专属顾问
我要投稿
AI技术如何助力门店答疑效率飞跃?有赞团队的实践案例不容错过。核心内容:1. 人工智能技术在门店答疑中的应用背景2. 选择Aily智能助手的原因及关键能力3. 门店智能助手业务流程及效益提升实例
当前,人工智能(AI)技术正处于高速发展阶段,互联网从业者对此感受尤为深刻。众多一线大厂纷纷投身于AI浪潮,推出了各类基于AI的工具。特别是在春节期间,DeepSeek引发广泛关注并迅速出圈后,将AI热潮更是推到了白热化程度。 在这样的背景之下,我们有赞门店技术团队也开始探索各种基于AI的提效手段,本文就将「技术答疑」这个小点作为切入点,展开来介绍下目前我们基于飞书aily平台搭建的智能助手; 耐心阅读本文,你将了解到以下内容:
saas系统本身业务就会非常复杂,标品功能、定制功能甚至是白名单功能非常多,而且随着我们服务的商家越来越多的情况下,我们每天都会收到大量来自商家、渠道等等业务咨询或者问题反馈,而在这背后,有以下几个点一直困扰着我们:
为解决上述问题,提高问题答疑的处理效率,我们引入了 Aily 智能助手。Aily 拥有以下关键能力,能够精准契合我们的业务痛点并带来显著价值:
因此,我们借助 Aily 的强大能力,搭建了有赞门店业务智能助手(后续统称门店智能助手) ,致力于优化门店的业务答疑流程,提升答疑效率以及客户满意度。
门店智能助手的整体业务处理流程较为简单:系统实时监听飞书群聊消息,门店智能助手借助Aily平台的RAG+LLM能力,为用户提供智能答疑服务。若用户针对问题答案不满意,门店智能助手还提供了其他的操作按钮,以便用户进行下一步操作,如提交问题或提出新需求。
具体流程详见下方流程图:
以上流程可以与我们内部的系统进行深度集成。基于我们现有内部系统的能力底座,加持智能助手的AI能力,将整个答疑、问题、需求创建以及跟进形成一个完整的闭环,如下图所示:
门店智能助手可以显著帮助研发或者技术支持同学提高处理商家咨询和提问的效率,当前拥有的能力如下:
上线不到2个月:
在搭建门店智能助手的过程中,我们遇到了诸多挑战,这促使我们深刻认识到,尽管AI技术潜力巨大,但其实际效果高度依赖于使用方式。例如,不同的大模型在性能和效果上存在显著差异,而且精心设计的提示词(prompt)更是发挥其效能的关键因素。因此,虽然AI能够轻松实现基本的答疑功能,但要达到理想的效果并非易事。这需要我们投入大量时间,持续进行调整与优化,才能逐步实现令人满意的效果。
从整体来看,我们在搭建门店智能助手的过程可以大致分为以下三个阶段:
在第一阶段,为了尽快上线答疑助手,我们完全采用了Aily助手提供的知识问答流程。当知识问答无法提供有效答案时,便会调用备用的指定技能。该技能相对简单,仅利用大模型判断问题性质,确定其是线上问题还是新需求,并据此自动创建Jira问题或需求。这一过程完全依赖于知识库内容以及大模型自身的判断能力。然而,上线后我们发现,尽管答疑助手具备一定的答疑能力,但仍有大量问题被自动创建为jira问题或需求,且存在诸多问题:
我们最初的期望是借助门店智能助手,在绝大多数场景下替代技术人员处理反馈问题,以提高工作效率。但实际情况却适得其反,智能助手反而增加了我们的工作量。 鉴于此,我们对整体流程进行了优化,开启了第二阶段的工作。
在第二阶段,我们认识到当前的 AI 技术还无法完全替代人工处理问题,但是可以通过与技术人员协作,充分发挥各自优势,从而整体提高问题处理效率。基于这一理念,我们对门店智能助手的相关流程和机制进行了以下的优化与调整:
在阶段二基本完成了现阶段答疑的核心流程,使用工作流完全替代了知识问答;
在第二阶段运行过程中,我们仍然发现了一些亟待解决的问题:知识库内容部分存在过期现象,且部分隐性知识无法被有效涵盖,导致门店智能助手无法准确答疑;另外,有些紧急问题也未能得到及时处理。针对这些问题,我们持续进行了以下优化:
综合上述三个阶段,我们持续优化答疑助手的流程,逐步提升其答疑能力,同时简化并优化后续流程,提高整体效率,最终实现了当前的良好效果。
在门店智能搭建助手的使用过程中,我们总结了一些常见问题及相应的解决方法,同时也积累了一些实用的小技巧,现在将相关内容整理如下,供大家参考。
我们经常会遇到知识库内容更新不及时或者部分隐性的经验与知识未被有效沉淀在知识库文档中的情况,从而导致门店智能助手无法回答该问题,但是该问题有其他同学在话题下添加了有效回复,这个时候我们可以通过我们的总结技能,将话题内容总结形成问答对沉淀在多维表格中,然后将该多维表格添加到aily的知识库中,这样我们的门店智能助手就有了持续学习的能力。
总结技能的核心处理逻辑:
数据存储与同步:
通过上述流程,我们能够实现对话题内容的高效总结与知识沉淀,进一步提升智能助手的知识储备与答疑效率,为商家提供更优质的服务体验。
技能编排本质上是一种低代码的流程编排工具,其核心价值在于通过可视化界面和简单的配置方式,实现复杂业务流程的快速构建与部署。然而,从技术实现的角度来看,我们完全可以借鉴传统编程中的代码编写思维来优化技能编排。通过抽象化与模块化将具有通用的流程编排封装成公共的技能,从而达到提高技能编排的复用性以及可维护性。
案例场景:比如我需要获取飞书文档信息,但是文档都需要token才能访问,这个时候可以编写一个根据url生成token的技能编排方法,这样我可以在其他流程里直接复用该技能而不需要每次都去写;
我们将整个答疑助手的流程抽象出多个可复用的技能,然后在一个主流程中进行调用,如下图所示,可以看到我们主流程逻辑非常简单,因为大部分都做了技能的封装,这样可维护性以及复用能力也比较高,如下图所示,我们封装了不同的可复用的技能:
AI幻觉经常会出现,会给你生成一些看似正确但是实际上并不正确的内容,这大部分是因为知识内容模糊不够明确而导致的。
我们可以通过以下几个方面去优化,尽量减少大模型出现幻觉的情况:
优化前,大模型给出了一个不存在的功能:优化后,大模型正确识别出该功能不支持:
最初,在技能编排过程中所有涉及到大模型的节点,我们都是一直使用gpt-4o去处理,包括图片解析、提取字段、意图识别等,后续智能助手活跃程度提高后,在执行过程中每天都会频繁出现调用超时或者限流的情况,和飞书的技术支持沟通后,因为调用的是国外模型,由于模型服务不在国内,可能会存在超时的原因,暂时无法避免,他们给出的建议是使用国内的豆包或者deepseek模型超时情况会好一些,实际切换模型之后确实很大程度减少超时的情况,下面是结合个人经验给出的模型使用建议(仅供参考,并不普适所有场景);
gpt-4o
;deepseek-v3
;doubao大模型
另外,还可以检查下流程编排中是否可以有优化的地方,减少大模型调用的节点,这样也可以提高整个流程的稳定性;
大模型的上下文长度有限制,超出上下文长度之后,可能会导致忘记前面的信息或者没有按照你后面要求的prompt来回答问题,可以优化prompt内容减少prompt中参数的注入,这样可以减少上下文长度,提高回答的准确性;
案例场景:在下面的案例中,${var1}
和${var1}
分别是从知识库和帮助中心查到的内容,其长度较长,修改前prompt中大量注入${var1}
和${var1}
参数,导致实际调用大模型的时候prompt长度超长,最后大模型给出的答案答非所问,优化prompt之后给出了正确的答案;
优化前prompt长度超出1w+,门店智能助手给出了错误的答案:优化后prompt长度减少至3k+,且门店智能助手给出了正确的答案:
另外,也可以通过模型这里的参数进行调整模型的最大token数,提高上下文长度限制;
技能编排修改之后不支持历史版本的回滚,也不知道具体的改动内容,所以建议如果修改技能编排,可以先复制当前的技能进行修改调试,调试成功后切换为新的技能,这样既不影响线上运行的助手,发布之后如果遇到问题也可以及时回切到老版本的技能;
大模型回答的问题都是概率性的,它受prompt提示、大模型选型等各种因素的影响,可能针对同一个问题,修改了prompt或者大模型都有可能得到不同的答案,这个时候就需要用到评测功能,来check你修改了大模型之后是否还能得到满意的答案;
案例场景:当你修改完一系列技能编排、prompt提示以及大模型调整之后,需要针对助手进行场景验证,可以通过aily助手的「评测」功能导入一些常用的测试集批量验证,执行成功会有一份报告进行评估,评估完全通过之后才可以发布上线。就像你写完代码写单测或者测试一样,可以保证本次发布的功能正确无误;
在搭建aily智能答疑助手的过程中,我们深刻体会到:真正的智能化转型不是简单的工具替代,而是人机协同的能力跃迁。通过飞书Aily智能助手的深度应用,我们实现了从单一答疑场景到全方位的智能化升级。
除了本文所提到的智能助手答疑能力之外,我们还尝试了其它方面的实践和落地,都获得了不错的效果,比如:
此外,基于aily助手的AI+低代码平台能力,我们还可以快速的搭建一个AI应用场景,让我们的想法能够快速的落地实现跑起来,这无疑加速了我们的创新以及迭代能力。
AI的价值不在于替代人类,而在于释放工程师的创造力。当Aily处理了80%的常规问题后,我们可以将精力投入更加具有创造性以及更加重要的工作中,这或许就是技术进化的终极意义——让我们回归思考的本质,去解决真正重要的问题!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-24
2024-09-27
2024-04-24
2025-03-13
2024-07-11
2025-03-10
2025-03-11
2025-03-10
2025-03-15
2025-03-18