微信扫码
添加专属顾问
我要投稿
这篇文章探讨了如何在工业环境中利用大型语言模型(LLMs)进行问题回答,特别是针对客服场景提供上下文相关的响应预测。然而,为了在行业环境中针对特定客户查询提供精确和相关的信息,LLMs需要访问全面的知识库以避免产生幻觉。面对这个问题,RAG技术应运而生。然而,使用RAG开发实际应用中的问答框架仍面临几个挑战:1)数据可用性问题,2)生成内容质量的评估,3)昂贵的人工评估成本。文章提出了一个端到端的RAG框架,用于解决工业环境中的问题回答问题。
A部分:当用户提出一个有效的查询时,系统会检索相关的文档,并从中生成适当的响应供代理选择。代理可以直接使用生成的响应,点击即可。
B部分:对于超出领域范围的查询,系统会引导用户提出相关的问题。
构建一个包含领域特定问题和对应答案的知识库文档的数据集。然后,利用LLM从公司文档中生成相关的问题-答案对,并从开源数据集中补充域外问题和答案。
RAG架构的主要组件包括检索器和生成器。检索器从知识库中检索相关文档,生成器则利用这些文档和历史聊天记录生成响应建议。
检索器
向量嵌入:使用不同的嵌入模型来表示查询和文档,以便计算它们之间的相似度。比较了Universal Sentence Encoder (USE)、Google的Vertex AI嵌入模型和SBERT-all-mpnet-base-v2等嵌入策略。实验结果表明,Vertex AI-textembedding-gecko@001(768)嵌入与ScaNN检索结合效果最佳。
检索策略:测试了多种检索算法,包括ScaNN和KNN HNSW。ScaNN因其在大规模数据集上的高效处理和高检索准确性而被选用。设置了不同的检索阈值,以确保不相关的文档不会被检索并传递给生成器。
生成器
LLM使用PaLM2基础模型(text-bison, text-unicorn)进行文本生成,确保在企业许可和安全要求方面具有优势。
ScaNN检索器在大多数情况下优于KNN HNSW,Vertex AI嵌入模型在捕捉复杂语义关系方面表现最佳。设置检索阈值为0.7可以有效减少不必要的文档检索,提高响应生成效率。
RAG LLM在准确性、幻觉率和缺失率方面均优于现有的BERT模型。
这篇文章主要介绍了RAG在传统智能客服场景的一个应用,减轻人工客服的工作负担。结果表明,检索相关知识库文档并利用LLMs生成响应比BERT响应更具上下文相关性和准确性。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-14
客服革命:多模态AI正在解决那些“说不清”的难题
2025-12-12
深度复盘:AI Agent 总是答非所问?可能你从第一行“意图定义”就错了
2025-12-11
钉钉8.1.10全新版本上线 职场沟通有了“AI嘴替”
2025-12-09
声网对话式 AI Studio 零代码也能快速开发对话式 Agent
2025-12-04
雇佣过目即忘的天才:为什么企业级AI总在浪费钱?| 甲子光年
2025-11-27
Agentic AI 全栈创新:从模型到治理,开启智能化落地新路径
2025-11-26
让AI评测AI:构建智能客服的自动化运营Agent体系
2025-11-22
客服领域AI Startup领头羊Sierra凭啥估值100亿美金?
2025-09-20
2025-10-30
2025-11-17
2025-11-12
2025-11-22
2025-11-26
2025-10-25
2025-10-28
2025-10-28
2025-10-31
2025-11-22
2025-11-17
2025-11-10
2025-11-02
2025-08-27
2025-08-25
2025-08-23
2025-08-08