微信扫码
添加专属顾问
我要投稿
GPT-4、Llama等开闭大模型通过预训练的方式将海量数据积累成一个庞大的知识库,再通过文本问答的形式为用户生成各种内容。但这种方法仅局限于训练数据集,为了扩大输出范围允许模型通过检索额外的数据来丰富生成内容,RAG(知识检索增强)成为了必备功能之一。
RAG也有一个明显的缺点,就是随着上下文信息量的增加,模型的解码时间显著延长,严重影响用户获取答案的效率。
所以,阿姆斯特丹大学、昆士兰大学和NAVER实验室的研究人员联合发布了创新压缩方法COCOM(Context COmpression Model)。
论文地址:https://arxiv.org/abs/2407.09252
在传统的RAG模型中,为了生成一个准确的答案,系统需要考虑大量的上下文信息。这些信息可能来自多个文档,每个文档都包含了对生成答案可能有用的信息。
不过将这些长文本直接输入到大模型中会导致解码时间显著增加,因为模型需要处理更多的输入数据,消耗的算力和推理时间也就更多。
COCOM使用了一种创新的上下文压缩技术,将长文本上下文转换成一组紧凑的上下文嵌入。这些嵌入能够捕捉原始文本的关键信息,并以一种更高效的方式提供给大模型,能够在减少模型输入大小的同时,保持提升生成内容的质量。
COCOM还使用了一个转换器,帮助大模型对输入的上下文进行分词处理,将其转换成一系列的标记。然后,这些标记被输入到一个压缩模型中,并负责将这些标记转换成一组上下文嵌入。
在压缩模型的训练过程中,研究者们采用了两种主要的预训练任务:自编码和基于上下文嵌入的语言建模。自编码任务的目标是训练模型将上下文嵌入重构回原始的输入文本,这有助于模型学习如何有效地压缩和解压上下文信息。
而基于上下文嵌入的语言建模任务则是训练模型根据压缩后的嵌入生成文本的下一部分,这有助于模型学习如何利用上下文嵌入中的信息。
值得一提的是,COCOM的压缩率非常灵活可以调节,通过调整压缩率参数帮助开发人员在减少解码时间和保持答案质量之间找到一个平衡点。
例如,一个较低的压缩率可能会生成更多的嵌入,从而保留更多的上下文信息,但同时也会略微增加解码时间。相反,一个较高的压缩率会减少生成的嵌入数量,从而加快解码效率,但可能会牺牲一些生成答案的质量。
此外,COCOM还能够处理多个上下文的情况。在知识密集型任务中,通常需要从多个文档中提取信息以生成答案。COCOM能够独立地压缩每个文档的上下文,并将生成的嵌入向量作为一组提供给大模型,这种方法能帮助模型在处理多个上下文时仍保持高效率。
研究人员在Natural Questions、MS MARCO、HotpotQA测试平台中评估了COCOM,并与现有AutoCompressor、xRAG、ICAE等压缩方法进行比较,COCOM的效率能提升5.69倍,内存减少1.27倍。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-18
关于相似度计算和rerank重排序的区别和作用
2025-09-18
给RAG打分:小白也能懂的AI系统评测全攻略
2025-09-18
向量化与嵌入模型:RAG系统背后的隐形英雄
2025-09-17
当“相似度 ≠ 相关性”:PageIndex 带来的 RAG 新范式
2025-09-17
解锁RAG高阶密码:自适应、多模态、个性化技术深度剖析
2025-09-16
你的 RAG 还在“垃圾进,垃圾出”?我用这套流程,把“废料”文档变成了黄金知识库
2025-09-15
应对知识管理挑战:RAG技术如何驱动企业智能化升级
2025-09-15
RAG彻底爆了!一文掌握其效果优化的架构设计及核心要点
2025-07-15
2025-06-24
2025-06-24
2025-07-16
2025-06-23
2025-07-09
2025-07-08
2025-08-05
2025-08-18
2025-09-02
2025-09-10
2025-09-10
2025-09-03
2025-08-28
2025-08-25
2025-08-20
2025-08-11
2025-08-05