微信扫码
添加专属顾问
我要投稿
RankRAG微调框架
第一阶段的SFT数据:用于维持指令跟随能力
上下文丰富的QA数据:涵盖了DROP、NarrativeQA、Quoref、ROPES、NewsQA、TAT-QA等数据集,每条数据包含问题、黄金上下文(golden context)和答案
会话QA数据集:如Synthetic Conversation和HumanAnnotatedConvQA,同时包括对话内容以及一份背景文档
检索增强的QA数据:不仅包括SQuAD和WebQuestions中的问题和答案,还用BM25将黄金上下文和检索到的top结果组合起来,确保每条数据都有5个上下文,其中有些上下文可能不包括问题答案,甚至是hard-negative,这是为了重点提高LLM对不相关上下文的鲁棒性
上下文排名数据:使用流行的MS Marco语义相关性数据集,将其中的黄金样本视为相关的查询-段落对 (?,?+),BM25挖掘的hard negtive (?,?−)则被视为不相关,让LLM对这些样本的相关性进行二元分类(True或False)
检索增强的排名数据:同样使用QA数据集SQuAD和WebQuestions,以及BM25检索到的上下文,训练LLM的对相关性进行排名的能力
实验
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-24
ChatGPT VS Claude ,Agent记忆用对话压缩还是RAG按需检索
2025-12-24
上下文不等于记忆:从单Agent到多Agent协作,记忆系统是关键
2025-12-23
为什么Claude Code不用RAG?
2025-12-22
图索引性能提升 400%:详解 VSAG 向量检索框架
2025-12-22
告别关键词高亮,语义高亮才是解决搜索 / Agent噪音的标准答案
2025-12-22
让RAG像人类一样“扫视全文”:上下文检索技术详解
2025-12-22
Uber 如何利用 OpenSearch 实现十亿级向量搜索
2025-12-22
别让大模型在“垃圾堆”里找金子:深度解析 RAG 的上下文压缩技术
2025-10-11
2025-10-04
2025-09-30
2025-10-12
2025-12-04
2025-11-04
2025-10-31
2025-11-13
2025-12-03
2025-10-12
2025-12-23
2025-12-21
2025-12-10
2025-11-23
2025-11-20
2025-11-19
2025-11-04
2025-10-04