微信扫码
添加专属顾问
我要投稿
OPEN-RAG中的推理流程。它学习生成检索/不检索标记,对比相关和不相关上下文,并将答案归类为部分支持、完全支持或不支持。然后在推理时,给定一个(多跳)用户查询,首先强制模型在输入条件为不检索的情况下生成答案,并根据模型的置信度动态决定是否需要检索。
检索/不检索:模型学会生成检索/不检索的标记,以指示是否需要检索来回答查询。
相关性评估:对于检索到的内容,模型生成相关性标记,指示内容是否与查询相关。
生成答案:根据预测的相关性、支持度和效用标记,对所有可能的答案进行排序,生成最终答案。
在各种知识密集型的单跳/多跳短文/长文推理任务上,基于Llama2-7B的OPEN-RAG在事实准确性和推理能力方面显著优于现有的开源RAG模型,并且常常匹配或超越了最先进的专有LLMs及其RAG模型。
自适应检索策略有效:
信心评分:模型在推理时生成检索/不检索的反射标记,并计算输出序列在强制不检索设置下的信心分数。
阈值控制:通过调整阈值γ,可以控制检索的频率。如果模型信心分数低于阈值γ,则触发检索。
信心评分重要:fmeanp(几何平均概率)作为信心评分方法,相比于fminp(最小概率)和fret(外部模型预测的反射标记概率),在所有数据集上都显示出更稳健的性能。
性能与检索平衡:在某些任务中,过高的检索频率并不总是最佳选择;自适应检索可以在适当的时机使用检索,从而在各种检索频率下都取得较好的性能。
(上)不同自适应检索策略的性能对比检索。(下)性能与自适应检索得分对比。fret表示来自外部模型提炼/预测的反射标记的概率得分。
CRAG方法:CRAG(Corrective Retrieval Augmented Generation)是一种在检索质量较低时使用网络搜索来获取新检索的方法。通过将CRAG方法与OPEN-RAG结合,研究者评估了模型对检索质量的鲁棒性。
结果:OPEN-RAG在结合CRAG数据集时表现优于其他基线,显示出对高质量检索的潜在改进能力。
专家激活:通过分析不同任务中专家的激活情况,研究者发现某些专家在特定层次上更活跃,这表明专家能够根据任务的复杂性在不同层次上发挥作用。
https://openragmoe.github.io/OPEN-RAG: Enhanced Retrieval-Augmented Reasoning with Open-Source Large Language Modelshttps://arxiv.org/pdf/2410.01782
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-30
优化 AI 问答准确率:知识库实践与避坑指南
2025-07-30
RAG召回优化完全指南:从理论到实践的三大核心策略!
2025-07-30
RAG 检索四件套全解析:模型、向量库、检索方式、排序器,一文选型不踩坑
2025-07-30
从0到1,彻底搞懂 RAG 分块的艺术(附开源代码)
2025-07-30
大规模RAG实施蓝图
2025-07-29
一小时内构建基于Gemma与Bright Data的生产级RAG应用
2025-07-28
做RAG系统到底是选MaxKB还是FastGPT
2025-07-28
企业RAG之构建 FastMCP 服务:基于模型上下文协议的智能服务体系搭建实践
2025-06-06
2025-05-30
2025-06-05
2025-05-19
2025-05-08
2025-05-10
2025-06-05
2025-05-20
2025-06-05
2025-05-09
2025-07-28
2025-07-09
2025-07-04
2025-07-01
2025-07-01
2025-07-01
2025-07-01
2025-06-30