支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


参数不到1B竟碾压大模型?工具调用RAG黑马问世

发布日期:2025-05-10 20:19:18 浏览次数: 1517 作者:沈公子今天读什么
推荐语

参数规模小却性能卓越,Pleias-RAG系列模型打破常规!
核心内容:
1. Pleias-RAG系列模型的主要贡献与特点
2. 模型推理过程中的创新工作流
3. 中间训练策略与合成数据的生成及应用

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

一句话概括,这篇论文就像是 "学术界的瑞士军刀:能检索会推理,多语种切换如德芙,就是参数规模小得像个玩具"

1. 论文分析:贡献、难点与概念依赖 (Stage 1)

1.1 主要贡献点分析

  1. 提出了新的“小型推理模型”家族(Pleias-RAG系列)论文展示了两个针对检索增强生成(RAG)任务的小模型:Pleias-RAG-350M 和 Pleias-RAG-1B。它们在相对较小的参数规模(数亿到10亿量级)下,依然能提供出色的检索与推理能力,并且在多语言环境下具备较高的可用性。
  2. 模型在生成答案时内置了“引用与原文引用片段”功能与常见的后置引用方法不同,这些模型在生成答案的同时,会直接生成对于文献或源文本的引用标记(例如使用形如<ref name=...>的标签),并且可以在同一个回答中自动插入相应的原文片段。这种机制让答案的可追溯性和验证性大幅提升。
  3. 完善的RAG工作流集成能力论文给模型设计了一个结构化的“推理序列”(或称多步骤推理模板),从分析用户问题、判断是否需要检索、多语言切换,到引用整合、答案草稿生成、以及对信息进行引用和重排等。这一系列步骤都在模型推理过程中得到端到端的体现。
  4. 借助大规模的合成数据中间训练(mid-training)提升模型表现作者通过大量合成数据(数百万规模的RAG样本,以及相对应的推理过程示例)来对模型进行“中间训练”,使模型学会复杂的检索、多跳推理以及自动引用等能力。这些数据包括了多语言、多领域的信息片段和对应的问题与答案,用于模拟真实场景下的检索与回答。
  5. 多语言能力与轻量部署与同等或更大参数规模的开放模型相比,Pleias-RAG系列在法语、意大利语、德语等欧洲主要语言上的RAG任务准确度损失很小,并且由于模型参数规模较小,易于在受限硬件环境(例如移动设备、Raspberry Pi)上部署。

1.2 理解难点识别

  1. RAG(Retrieval-Augmented Generation)原理与细节虽然RAG是近些年非常热门的技术,但论文中对RAG的实现细节做了专门设计,包括多轮推理、引用格式化、内容重排和“拒答逻辑”等,因此要真正理解论文,首先需要搞清楚它是如何把检索到的多条文档片段(source)整合到最终答案中,并在生成答案的同时附带引用。
  2. 中间训练(Mid-training)方法与合成数据生成论文并非简单地进行微调或后训练,而是采用了大规模的“mid-training”策略(介于基础模型训练和下游任务微调之间)。如何构建、过滤和使用海量的合成数据,让模型学会多步骤推理、引用生成,是一个较为复杂的过程。理解这一部分需要掌握:
  • 合成数据的结构
  • 多语言、多领域样本如何模拟真实检索场景
  • 训练过程中如何保证模型学会引用、段落缩写及多步推理
  • 内置引用(In-text Citation)机制一般的检索型对话系统往往在模型生成答案后再做“后处理”进行引用匹配,但论文提出的做法是“在推理过程中就将引用信息和部分原文片段生成出来”。要理解这种机制,需明白模型如何在生成时同时考虑“文本连贯”与“引用格式正确性”,以及如何部分截取原文进行“摘引”。
  • 结构化多步推理框架论文为模型的推理设计了一个“标准化工作流”,包括:
    • 问题分析(query analysis)
    • 来源分析(source analysis)
    • 草稿与引用生成(draft + citation)
    • 最终回答 这一串链式推理在小模型中如何实现,是论文的一个技术亮点。理解这个结构化流程可以帮助读者明白为什么小模型可以在检索场景下取得高精度与可靠性。
  • 多语言与语言切换论文特别指出了Pleias-RAG在多语言(尤其是欧洲主要语言)环境中表现稳定,且能进行跨语言检索或回答。这意味着需要理解模型如何在训练数据中学习到各语言的分词、句法,以及如何在推理和引用时进行混合或切换。
  • 1.3 概念依赖关系

    1. RAG 的基础概念 → 结构化多步推理框架 → 内置引用与原文摘引要先明白什么是检索增强生成(RAG)及其常见问题,如“答案如何整合检索结果”、“如何避免幻觉式回答”等,才能理解论文提出的多步推理和引用机制为何重要。
    2. 合成数据生成方法 → 中间训练(mid-training)策略 → 小模型的推理与引用能力论文花了大量篇幅阐述如何生成高质量且多样化的合成数据,用来让模型掌握不同语言、不同场景的检索和回答模式。理解数据生成和中间训练的流程,有助于把握为什么“小模型也能有较强推理能力”。
    3. 多语言 → 重排与引用 → 最终答案的准确性与可追溯性在支持多语言回答的过程中,模型要在生成答案的同时正确插入引用与原文片段,还要保证语言上下文一致。这些都属于较高难度的生成任务,需要综合理解前面所有要素。

    综上所述,如果要深入解析,最需要重点讲清楚的概念与模块大致是:

    • “中间训练”(mid-training)如何借助大规模合成数据来实现多步推理与引用学习
    • “结构化多步推理”及“内置引用”在小模型中是如何被统一设计与实现的
    • 多语言支持下的检索与回答流程

    在下一阶段(第二阶段)的深入讲解中,建议围绕“内置引用的检索增强生成机制”这一核心概念(它涉及结构化推理、引用插入、多语言支持等几个关键点)来展开,因为它能最好地展现该论文的创新特质与技术难点,也最能体现合成数据中间训练的价值。

    接下来可以从这一核心概念(“内置引用的RAG多步推理机制”)作为切入点,按照第二阶段的框架进行比喻和深入解释。


    2. 核心机制详解:内置引用RAG多步推理 (Stage 2)

    本阶段重点围绕我们在第一阶段所选定的核心概念——“内置引用的RAG多步推理机制”——进行深入解释。此阶段会以生活化比喻来帮助读者理解这个复杂机制,并通过适当的数学公式(结合论文主旨所涉及的典型RAG原理)进行阐述。由于原文未明确给出数学公式,以下公式参考了通用的检索增强生成(RAG)技术原理,读者可将其视为论文中“内置引用RAG流程”在数理层面的一个典型表征示例。

    2.1 设计生活化比喻

    要理解“内置引用的RAG多步推理机制”,可以把它比作规划一次跨城市的旅行

    • 你(模型)要回答“如何从当前城市到达一个风景更优美的目的地”,相当于用户提出的问题
    • 你手头有一系列交通工具信息、地图、景点指南等资料,相当于检索到的多份文档或来源(sources)
    • 你需要在多个资料之间来回查阅(比对车票价格、路线可行性、住宿信息等),相当于多步推理和信息整合
    • 你在最终形成的旅行计划里,必须“标注每一个观点或数据从哪里来”,并且把关键的路段、费用等信息原封不动地引用到行程单中,相当于生成答案时自带引用标记和原文摘引

    在这个过程中,你既要决定去哪里(解决核心问题),又要说明“为什么选择这条路线”并给出对应参考资料(对读者来说,这能验证可靠性、可追溯性)。

    2.2 建立比喻与实际技术的对应关系

    让我们把上面旅行比喻中的关键元素,与“内置引用的RAG多步推理机制”中的技术要点一一对应起来:

    1. “需要规划的旅行目标” ↔ “用户的问题 (query)”
    • 在旅行场景里,你要去一个具体的城市或景点;在模型的语境里,用户的问题就是最终要解决的“目标”。
  • “可查阅的交通工具信息、地图和指南” ↔ “检索到的文档或来源 (sources)”
    • 这些资料相当于多份可用信息,有的相关度高,有的纯粹是干扰项。RAG会从中筛选哪些最有用。
  • “比较各条路线、住宿花销等步骤” ↔ “多步推理流程 (structured reasoning sequence)”
    • 模型需要先分析问题、再筛选信息片段、然后组织可行方案,最后整合并回答。
  • “在行程里标注参考资料并摘抄关键票价或时间表” ↔ “内置引用 (in-text citation) 和原文摘引”
    • RAG模型在生成答案的同时,把信息引用的出处标记好(比如 <ref name="source_x">),并把与核心结论相关的原文片段放进去。
  • “把完整的旅行计划写好给同行的人看” ↔ “最终生成既有回答又带引用的文本”
    • 模型的输出不仅是一句话结论,还包含了精确的引用标签和摘引内容,方便“同行的人(用户或审查者)”核对。

    2.3 深入技术细节 (含公式示例)

    在正式阐述技术时,通常RAG的检索与生成过程可以抽象为一个典型公式。虽然论文中并未给出明确的数学形式,但以下公式能体现论文所讲的“内置引用RAG”大致的概率结构。假设用户输入为 (query),答案为 ,检索到的候选文档集合为 ,则通常RAG用到的核心公式可写作:

    下面先给出原版公式,再用自然语言替换各符号以便读者理解:

    1. 原始数学形式:

    • 这里  表示检索到的文档集合; 表示检索模型在给定问题  的情况下选择某个文档  的概率; 表示在已知问题  和文档  时生成答案  的概率。
  • 符号替换版本(自然语言解释):

    • “用户提问后,模型会针对问题去检索多份文档,这些文档里可能包含答案所需线索,也可能是干扰项。我们用‘检索子系统挑选某文档的可信度’来描述这个过程”,对应 
    • “在拿到具体文档之后,模型根据该文档与问题来拟出答案,得到‘基于文档  的答案生成概率’”,对应 
    • “将所有文档的贡献加起来,就得到一个综合意义上的答案概率”,对应  的求和过程。
  • 关键实现步骤:

    • 检索/筛选:根据用户问题 ,利用向量搜索、BM25 或者其他检索算法,从海量文档中挑选若干条最相关的文档 
    • 多步推理:模型依次对问题和文档进行分析判断(论文中称为“query analysis”、“source analysis”等),内部会对每篇文档打分、排序或做引用选择。
    • 回答与引用生成:在输出答案的同时,把相应引用标签(如 <ref name="source_x">)和原文摘引自动插入到生成文本中。

    2.4 将技术细节与比喻相互映射

    下面我们再次回到“跨城市旅行”的比喻,看看这些技术步骤如何映射到生活场景:

    1. 检索/筛选 → 寻找旅行资料
    • 你会先从网上搜罗各种攻略、交通票务信息。这一步和RAG里“基于  检索文档集合 ”是对应的。
  • 多步推理 → 比较路线、住宿、价格
    • 你可能先考虑“路线1”怎么走,再对比“路线2”,在这个过程中淘汰不合适的选项。对应于模型内部对多个文档进行分析、打分、选择有用信息等。
  • 回答与引用生成 → 写出行程+注明来源
    • 当你把最终行程分享给朋友时,会在行程单里写好“来自 XX 交通官网”或“根据火车站网站信息”。这对应于模型的“在回答里嵌入 <ref> 标签,摘取文档原文段落”。
  • 公式中的概率求和 → 不同路线的加权结果
    • 旅行中你也许会部分地从“路线1”借鉴行程,部分地采纳“路线2”的酒店方案,最后做一个综合决策。这就像  这种对多文档贡献的加总。
  • 局限性
    • 比喻中大家通常只会查看有限的交通路线和住宿评价,而在实际RAG场景里,需要在海量文档中快速检索、筛选,还涉及多语言等复杂维度。因此,用“旅行”来理解多步推理、引用机制是形象的,但真实的模型执行规模更大、过程更复杂。

    2.5 总结:比喻与技术的结合

    通过“跨城市旅行”的比喻,可以直观理解论文所提出的“内置引用RAG多步推理机制”:

    1. 核心联系
    • 用户问题 ↔ 旅行目的
    • 检索文档 ↔ 交通/住宿/旅游资料
    • 多步推理与整合 ↔ 反复比对路线
    • 内置引用与原文摘引 ↔ 注明资料来源、引用关键票价时间表
  • 主要收获
    • 这种对应关系让读者更容易把握模型在回答时为何要一边引用一边生成答案,也能理解多步推理的必要性——在有大量文档的场景下,不进行结构化处理就无法保证答案的准确性和可追溯性。
    • 数学公式层面,我们用  表达了RAG常见的思想:先检索文档,再综合文档信息生成答案。
    • 内置引用让回答更加“可验证”,一旦读者想要“真的看看某路线票价是不是那么便宜”,就能回溯到那段原文(或官网)。模型通过训练学会了这个过程,保证引用的准确性与整体回答的连贯度。

    至此,读者对于“内置引用RAG多步推理”的技术原理有了一个更形象的认识。在接下来的第三阶段,我们将依据论文提供的具体流程,对如何从输入到输出展开详细说明,并给出示例或伪代码式的过程描述。届时,读者就能更清晰地了解该论文所提出的完整方法是如何“流水线式”地落地执行的。


    3. 实现流程剖析:从输入到输出 (Stage 3)

    本阶段旨在详细说明论文提出的完整模型或方案从输入到输出的处理流程。读者可根据这些描述,准确还原方法或流程的具体步骤,甚至编写出相应的伪代码。

    3.1 处理流程概述

    论文中提到的“内置引用的RAG多步推理机制”在实际部署时,可被视为一条完整的流水线,通常包含以下主要阶段:

    1. 输入接收:模型接收用户的查询(query)及可选的“已检索或待检索的文档/片段”(sources)。
    2. 多语言识别 & Query 分析:模型先判断查询语言,然后在内部进行“query analysis”,以了解问题类型、判断是否需要检索更多信息,或者是否能直接回答。
    3. 检索/文档选择(可选):若需要检索,模型或系统会根据解析后的 query,从知识库或搜索引擎中获取并返回若干文档源。
    4. 来源分析(source analysis):对已获得的文档进行评估(是否与问题高度相关,是否相互补充等),并在内部生成对这些文档的初步整理,如先后排序、段落标记、可引用的片段等。
    5. 起草与引用插入(draft & citation):模型正式生成答案草稿,并同步插入引用标签(如 <ref name="source_x">)和必要的原文摘引。在此过程中,如果模型发现信息不足,则可能给出拒答或提示进一步查询。
    6. 最终答案生成:输出不仅包含答案文本,还包含可追溯的引用;若在多语言场景下,答案将使用与输入相同的语言呈现(除非策略另有要求)。

    在大多数实际应用中,步骤3(检索/文档选择)可能由外部组件(如BM25、向量索引等)执行,然后将搜索结果送入模型。论文中突出的创新点则是步骤4-5之间的密切配合:模型并非等回答生成完毕再做“后处理”,而是“边推理、边插入引用”。

    3.2 示例演示:从输入到输出

    下面给出一个示例,演示当用户提出一个问题时,这个RAG多步推理机制是如何工作的。示例源自论文所述的多语言场景:用户以西班牙语输入一个历史问题。

    1. 输入接收
    • 用户问题(Query):「¿Cuándo comenzó la Segunda República Española?」
    • 由于部署环境中已经有一个初步的检索子系统,模型在内部知道如果不够,就会请求更多文档;如果已足够,则直接进行分析。
  • 多语言识别 & Query 分析
    • 模型自动检测到这是西班牙语问题。
    • 进行“query analysis”后,模型得出:需要回答一个历史事件的日期;判断这是可以在已索引的历史文档中找到的信息。
  • 检索/文档选择(可选)
    • 若系统判断需要检索,则它向历史文档索引提交关键词“Segunda República Española”并获取若干段落。
    • 假设共检索到 3 段相关文本(source_1source_2source_3)以及若干干扰文本。
  • 来源分析(source analysis)
    • source_1:提到了西班牙第二共和国的开始时间是 1931 年 4 月 14 日;
    • source_2:简述该时期主要领导人;
    • source_3:讨论了同时代的欧洲政局,没有具体日期。
    • 模型逐一“阅读” source_1source_2source_3,筛掉或标记不相关信息。例如:
    • 模型将 source_1 视为最核心的引用来源,并在内部记录需要引用的原文片段。
  • 起草与引用插入(draft & citation)
    • 首先在答案中写明:「La Segunda República Española comenzó el 14 de abril de 1931...」。
    • 同时插入引用标签,例如 <ref name="source_1">
    • 若该来源文本中有一句原文描述“...la Segunda República se proclamó el 14 de abril de 1931...”,模型会选取关键部分用“原文摘引”形式插入,如 <ref name="source_1">...la Segunda República se proclamó el 14 de abril de 1931...</ref>
    • 模型开始生成答案草稿:
    • 如果模型发现剩余两个来源对于准确日期或结论无帮助,只做简要提及;或只引用到补充内容。
  • 最终答案生成
    • 模型输出的最终答案可能是:

      Respuesta: La Segunda República Española comenzó el 14 de abril de 1931...la Segunda República se proclamó el 14 de abril de 1931....

    • 这样就完成了一个完整的多步推理过程,并且给出了引用。

    3.3 流程伪代码描述

    以下伪代码示意了一个典型的“内置引用RAG多步推理流程”。该流程将检索与模型推理分离,但又在模型内部实现引用插入:

    # 输入:用户问题 Q;(可选)外部检索组件 fetchDocuments()

    function RAG_with_intext_citation(Q):
        # Step 1: Detect language
        lang = detectLanguage(Q)

        # Step 2: Query Analysis
        queryAnalysis = analyzeQuery(Q)
        if queryAnalysis == "need_more_info":
            # Step 3: 检索(外部或内置)
            candidateDocs = fetchDocuments(Q)
        else:
            candidateDocs = alreadyProvidedDocs(Q) # 使用已有的文档

        # Step 4: Source Analysis
        relevantDocs = []
        for doc in candidateDocs:
            relevanceScore = estimateRelevance(doc, Q)
            # 注意: 下面的 > 没有被替换,因为它在伪代码的 if 语句中,不是数学公式
            if relevanceScore > threshold: 
                relevantDocs.append(doc)
        # 排序
        relevantDocs = sortByScore(relevantDocs)

        # Step 5: Draft & Citation
        # 让模型内部一次性或多次生成“答案 + 引用”
        # 对模型的伪指令:
        draft = generateDraftAndCitations(Q, relevantDocs, lang)

        # 若生成过程需要多轮推理,可在此循环:
        # while not satisfied(draft):
        #     draft = refineDraftWithCitations(draft, relevantDocs)

        # Step 6: Finalize and Output
        finalAnswer = finalizeAnswer(draft)

        return finalAnswer


    # 模型生成带引用的草稿的函数示例
    function generateDraftAndCitations(Q, docs, lang):
        # 引用插入示例逻辑:遍历 docs 中高相关片段
        # 并将最核心的原文文本摘录到 answer
        answerText = ""
        # 准备模型输入:包含问题 Q, 相关文档 docs, 和生成指令
        model_input = prepare_model_input(Q, docs, lang, instruction="Generate answer with in-text citations.")

        # 模型生成输出 (假设模型能按指令生成带引用的文本)
        raw_output = model.generate(model_input) 

        # 对模型输出进行解析和格式化 (如果需要)
        answerText = parse_and_format_output(raw_output)

        # 若模型无法一次性完成,可能需要更复杂的交互或后处理
        # (以下为简化表示,实际可能集成在模型生成逻辑中)
        # for doc in docs:
        #     neededSnippet = extractRelevantSnippet(doc, Q) # 从文档提取相关片段
        #     # 注意: 下面的 'is not empty' 不是数学符号
        #     if neededSnippet is not empty: 
        #         # 在回答中插入引用标签和部分原文 (模型应自行完成此步骤)
        #         # 注意: 下面的 < 和 > 在字符串字面量中,不是数学比较符
        #         refTag = "<ref name=\"" + doc.id + "\">" + neededSnippet + "</ref>" 
        #         # answerText += ... (模型生成时应已包含)

        # 若还有缺省信息可补充或拒答逻辑,也可在此执行
        # 注意: 下面的 'is empty' 和 'or' 不是数学符号
        if answerText is empty or lacks_confidence(answerText):
             answerText = generate_refusal_or_clarification(lang)

        return answerText

    # (其他辅助函数如 detectLanguage, analyzeQuery, fetchDocuments, 
    # estimateRelevance, sortByScore, finalizeAnswer, prepare_model_input, 
    # parse_and_format_output, generate_refusal_or_clarification 等需要具体实现)

    读者可以根据自己的检索系统和模型API,将此伪代码适配到现实项目。关键之处在于:模型在生成“答案文本”时,并不是在后处理阶段再去拼接引用,而是在生成阶段就把 <ref> 标签和引用文本一并写入

    3.4 关键注意事项与总结

    1. 多语言兼容
    • 在上述流程中,detectLanguage(Q) 和语言相关的部分十分重要。如果在回答和引用过程中出现语言混杂(例如用户的 query 是西班牙语,文档是英语),则需要模型有能力做跨语言理解或翻译。
  • 引用准确性
    • 在 generateDraftAndCitations() 的过程中,模型要尽可能精确地匹配被引用文档的片段;一旦引用文字与原文不符,就会破坏该特性最核心的“可验证”价值。
  • 上下文长度限制
    • 小模型通常上下文窗口不如大模型宽裕。如果检索到的文档过多或过长,如何进行分段、摘要或多轮读写,也是论文提到的一个训练挑战。
  • 拒答与多步迭代
    • 如果所有文档都无法回答问题,模型要返回合适的拒答信息。或者在第一次草稿不完整时,模型可以“多轮推理”再补充引用片段,这些都需要在实际部署中做额外处理。
  • 总结
    • 上述流程完整呈现了从“接收用户输入”到“输出带引用的答案”的基本操作,每一步都与论文的思想相吻合:依托检索、运用多步推理、以内置引用标记来确保可追溯性与多语言支持。
    • 读者只要依照这个流程描述,就能大致复现论文中所提及的“内置引用RAG多步推理机制”。

    至此,结合前面两阶段的“概念剖析”与“比喻+公式”解释,以及本阶段的流程说明,读者即可在理论和实践层面对论文提出的“内置引用的RAG多步推理机制”获得较为全面的理解与操作指引。

    本文题目:Even Small Reasoners Should Quote Their Sources: Introducing the Pleias-RAG Model Family

    欢迎Deep Learning同好与我交流、讨论、合作!


    53AI,企业落地大模型首选服务商

    产品:场景落地咨询+大模型应用平台+行业解决方案

    承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

    联系我们

    售前咨询
    186 6662 7370
    预约演示
    185 8882 0121

    微信扫码

    添加专属顾问

    回到顶部

    加载中...

    扫码咨询