微信扫码
添加专属顾问
我要投稿
上周给大家分享过Jina AI最新的研究,late chunking, 通过将chunk分块后置到emebedding之后,来达到提升召回的效果。 今天给大家分享一个新的策略,称为DS-RAG。
一个不好的分块,会带来很多的问题,比如说以下几点:
等等。。。
解决方案有2种:
前者添加上下文头的目的是给文档块添加更多的上下文信息,这些上下文头会随着块一级被向量模型编码。下图是个例子:
测试添加块头能明显的提高相关的文档块与query的相关性。
同样,针对这个query,如果我们计算与这个文档所有块的相似度。可以绘制出下面的点图,围绕在chunkid_400附近存在一些高相似度的文档块。当一个块附近的文档块都与query相近时,我们可以把这些块合并成一个段(segments)。如果把这些段合并作为整体送入LLM,可能可以获得更好的效果。那如何识别这些段的存在呢?因为已经计算了query与块的相关性,所以直接减去一个常数超参,让相关的块的score仍为正数,不相关的为负数。这个超参越大,段越小,反之,得到的段越大。
通过这种方法可以得到一个大段。
这个策略的一个优点是,当部分被排序模型认为不相关的块,但夹在高度相关的块之间,通常与query也是相关的。
因此,除了为LLM提供更完整的上下文之外,这种动态构建相关文本片段的方法还使我们的检索系统对排序模型所犯的错误不太敏感。
项目代码:https://github.com/D-Star-AI/dsRAG/tree/main
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-12
深度解析 Devstral 2:Mistral 如何重新定义开源代码智能体(Agentic Coding)
2025-12-12
【开源推荐】1.4 万星爆火!Notebook LM 开源本地版
2025-12-11
一句 prompt,自动部署 AI 手机|邪修还是快
2025-12-10
豆包手机同款AutoGLM硬核开源:AI如何用“眼睛+大脑+手”接管你手机
2025-12-09
豆包手机不用买了?能操作手机的AutoGLM开源
2025-12-09
今天,AutoGLM开源:让人人都可构建手机Agent
2025-12-09
多模态文档智能解析模型进展-英伟达开源NVIDIA-Nemotron-Parse-v1.1
2025-12-09
11K+ Star!NotebookLM 最强开源平替来了,支持私有化部署!
2025-10-20
2025-11-19
2025-10-27
2025-10-27
2025-10-03
2025-09-17
2025-09-29
2025-10-29
2025-09-29
2025-11-17
2025-11-12
2025-11-10
2025-11-03
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17