微信扫码
添加专属顾问
我要投稿
优化RAG多轮对话的关键:如何利用历史记录精准改写用户问题,提升文档召回效果。核心内容: 1. RAG系统在多轮对话中的核心痛点:上下文缺失导致召回偏差 2. 基于历史记录的问题改写技术原理与实现路径 3. 无关问题场景下的解决方案与优化边界
“ 基于大模型的RAG多轮对话功能,其检索增强的流程和实际业务的场景可能会存在一定的冲突,而这个平衡点却很难把握。”
在之前的文章中有讲过一个RAG检索优化的方法论,简单来说就是通过对问题进行改写和优化;比如说用户输入一个问题query,但由于我们无法控制用户的行为,因此用户输入的内容query可以是任何东西,包括可能存在错别字,语义错误,甚至是一些无意义内容。
面对这种情况,特别是在多轮对话过程中会导致一个很严重的问题,那就是会严重影响到数据召回的效果。
RAG检索优化——问题改写
关于RAG问题改写的方式有很多,包括但不仅限于问题优化,相似性子问题,假设性回复等等;其本质就是利用大模型的能力来根据完善和增强用户的提问。
但这里存在一个问题就是,在进行问题改写的时候最好能基于历史记录进行改写;为什么要这么做?
举个例子,用户提出一个问题query,怎么学习人工智能技术?然后经过RAG系统的一系列处理,包括文档检索,生成增强等;但用户觉得模型回答的还不够全面;因此,第二个问题是继续,也就是在第一个问题回答的基础之上继续回答,也就是典型的多轮对话场景。
那么随着第二个问题的输入会出现什么情况?
通过数据召回技术,可能会召回一些完全不相关的内容,原因就是其没有完整的上下文,RAG也不知道你这个继续是啥意思,只能根据字面意思进行数据召回,然后再进行生成增强;但我们都知道这是有问题的。
原因在于RAG中,检索和增强是两个步骤而不是一个步骤;检索的目的是使用相似度或其它检索方式从向量库或其它存储中获取参考文档;而增强是在检索回来的文档之上做处理之后,然后让模型使用这些文档做数据增强。
所以,多轮对话中一定要保证上下文的完整性,或者说尽可能的保证上下文的完整性。
虽然说用户之间输入继续可能会召回很多无关文档,但在模型生成阶段依然可以正常的进行回复,这个这个回复更多的是基于模型本身的能力,而不是基于外部知识库;当然,前提是你做了记忆功能。
所以说,这里也体现了问题改写的重要性,如果不进行问题改写,那么基于用户原生的问题,因为丢失上下文因此就会导致文档召回有问题;所以,这里进行改写的时候一定要加入历史记录,这样模型就可以使用历史记录作为上下文,来理解用户的问题;然后生成相关的问题,来进行数据召回,这样就可以大大提升文档召回的准确性,以此来达到增强生成的目的。
但这里同时也存在一个问题,那就是用户的两个问题可能是完全无关的,而这时候使用历史问题来优化用户的当前问题,也可能会导致最终召回的文档不准确;所以,这里还需要想别的方案来解决,然后使其尽可能的达到最优解。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-26
你的RAG知识库,真的“喂”对数据了吗?拆解dify分段策略,告别无效召回
2025-10-16
基于大模型的智能问答场景解决方案——RAG提升召回率的关键
2025-10-16
用合成数据评测 RAG 系统:一份可直接上手的 DeepEval 实操指南
2025-10-16
2025 年 RAG 最佳 Reranker 模型
2025-10-16
HiRAG问答流程深入分析
2025-10-13
LightRAG × Yuxi-Know——「知识检索 + 知识图谱」实践案例
2025-10-13
PG用户福音|一次性搞定RAG完整数据库套装
2025-10-12
任何格式RAG数据实现秒级转换!彻底解决RAG系统中最令人头疼的数据准备环节
2025-09-15
2025-09-02
2025-08-05
2025-08-18
2025-08-25
2025-08-25
2025-08-25
2025-09-03
2025-08-20
2025-09-08
2025-10-04
2025-09-30
2025-09-10
2025-09-10
2025-09-03
2025-08-28
2025-08-25
2025-08-20