微信扫码
添加专属顾问
我要投稿
Qwen3 Embedding系列在多语言文本表征和排序任务中表现卓越,8B模型登顶MTEB排行榜,支持100+语言和灵活定制。核心内容: 1. Qwen3 Embedding系列模型的技术背景与核心优势 2. 在MMTEB和C-MTEB基准测试中的突破性表现 3. 支持多语言、灵活维度和用户指令的三大特色功能
虽然现在可以通过大语言模型、多模态大模型做端到端的任务。但依然存在一些大模型无法直接处理的场景。例如比较常见的 RAG 任务,从海量文档数据中找回目标数据。常用的手段就是多路召回,其中就不乏有基于 Embedding 的稠密召回操作,对于召回的内容总得有一个“相似度”评判,就是一个 Reranking 模型。
评判 Embedding、Reranker 模型的性能效果的 benchmark 主要有:
官方博客:Qwen3 Embedding:新一代文本表征与排序模型[5]
论文:Qwen3 Embedding: Advancing Text Embedding and Reranking Through Foundation Models[6]
github:https://github.com/QwenLM/Qwen3-Embedding[7]
Qwen3 Embedding 系列模型分别有 0.6b, 4b, 8b 的 Embedding 和 Reranker 模型。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。在多项基准测试中,Qwen3 Embedding 系列在文本表征和排序任务中展现了卓越的性能。主要特点如下:
卓越的多功能性:该嵌入模型在广泛的下游应用评估中达到了最先进的性能。8B 大小的嵌入模型在 MTEB 多语言排行榜上排名第 1(截至 2025 年 6 月 5 日,得分为 70.58),而重排序模型在各种文本检索场景中表现出色。
全面的灵活性:Qwen3 Embedding 系列提供了从 0.6B 到 8B 的全尺寸范围的嵌入和重排序模型,适用于重视效率和效果的各种使用场景。开发人员可以无缝地组合这两个模块。此外,嵌入模型允许在所有维度上灵活定义向量,并且嵌入和重排序模型都支持用户定义的指令,以增强特定任务、语言或场景的性能。
多语言能力:得益于 Qwen3 模型的多语言能力,Qwen3 Embedding 系列支持超过 100 种语言。这包括多种编程语言,并提供了强大的多语言、跨语言和代码检索能力。
模型参数:
Embedding 模型对比:
ReRanker 模型对比:
基于 Qwen3 基础模型, Embedding 模型和 Reranking 模型分别采用了双塔结构和单塔结构的设计。通过 LoRA 微调,最大限度地保留并继承了基础模型的文本理解能力。具体实现如下:1) Embedding 模型接收单段文本作为输入,取模型最后一层[EOS]标记对应的隐藏状态向量,作为输入文本的语义表示;2) Reranking 模型则接收文本对(例如用户查询与候选文档)作为输入,利用单塔结构计算并输出两个文本的相关性得分。
Embedding 模型的入参格式:
{Instruction}{Query}<|endoftext|>
Reranking 模型的入参格式:
<|im_start|>system Judge whether the Document meets the requirements based on the Query and the Instruct provided. Note that the answer can only be "yes" or "no".<|im_end|>
<|im_start|>user
<Instruct>:{Instruction}
<Query>: {Query}
<Document>:{Document}<|im_end|>
<|im_start|>assistant
<think>\n\n</think>\n\n
相似性打分逻辑:
Qwen3 Embedding 系列模型的训练继承了 GTE-Qwen 系列的多阶段训练范式,但针对具体应用场景进行了深度优化。
采用三阶段训练架构:
第一阶段通过超大规模弱监督数据进行对比学习预训练;
第二阶段基于高质量标注数据进行监督训练;
最终通过模型融合策略融合多个候选模型,以提升整体性能。 这种分阶段训练机制有效平衡了模型的泛化能力与任务适配性。
基于实验验证结果,作者直接采用高质量标注数据进行监督训练,以提升训练效率。特别需要说明的是,在 Embedding 模型的第一阶段弱监督训练中,作者构建了多任务适配的 Prompt 体系,利用 Qwen3 基础模型的文本生成能力,针对不同任务类型和语言特性,动态生成了一系列弱监督文本对,突破了传统方法依赖社区论坛或开源数据筛选获取弱监督文本对的局限性,实现了大规模弱监督数据的高效生成。其中 SFT 优化 loss 函数定义如下:
其中 p(·|∗)使用 LLM 给出的概率值,标签 l 是"yes"时是正向的文档,是"no"则是负面的。这个函数估计模型对正确的标签给出高的概率值,以进一步提高排序的性能。
总所周知,Qwen3 模型的基座能力还是挺强的,从 benchmark 的指标上来看,0.6b 的 Embedding 能力和 Reranking 能力都是很突出的。在工程化部署方面,也可以使用 vllm 模型来提高性能,在实际应用种还是可行的。此外,还可以在个人私域数据中做进一步的 sft 应提高私域数据计算准确性。
总的来说,在具体的任务中可以尝试使用该模型进行尝试和验证。不过需要注意的是,Embedding 模型和 Reranking 模型是两个。
MMTEB(Massive Multilingual Text Embedding Benchmark): https://huggingface.co/spaces/mteb/leaderboard
[2]MMTEB: Massive Multilingual Text Embedding Benchmark: https://arxiv.org/abs/2502.13595
[3]C-MTEB(Chinese Massive Text Embedding Benchmark): https://huggingface.co/C-MTEB
[4]C-Pack: Packed Resources For General Chinese Embeddings: https://arxiv.org/abs/2309.07597
[5]Qwen3 Embedding:新一代文本表征与排序模型: https://qwenlm.github.io/zh/blog/qwen3-embedding/
[6]Qwen3 Embedding: Advancing Text Embedding and Reranking Through Foundation Models: https://arxiv.org/abs/2506.05176
[7]https://github.com/QwenLM/Qwen3-Embedding: https://github.com/QwenLM/Qwen3-Embedding
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-03
赶在GPT-5之前,谷歌的Gemini 2.5 Ultra上线了!
2025-08-03
你的Agent为何如此愚蠢?顶级AI应用的秘密,都在这套“Deep Agents”架构里!
2025-08-03
AI Agent 监控、治理与优化实战解析 —— 以房产推荐 Agent 为例
2025-08-03
从被逆向的Claude Code解析上下文工程
2025-08-03
刚刚,Manus憋出大招:隆重推出具有100倍算力的新产品——Wide Research
2025-08-03
20个进入实用阶段的AI应用场景(软件公司篇)
2025-08-03
在大模型应用中使用长短记忆: OpenMemory MCP
2025-08-03
刚刚!Claude Code对外公开了官方内部最佳实践!核心贡献者:CC是一个纯粹Agent工具,揭秘md文件、上下文进阶技巧
2025-05-29
2025-05-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-06-07
2025-06-21
2025-06-12
2025-05-20
2025-08-02
2025-08-02
2025-07-31
2025-07-31
2025-07-31
2025-07-30
2025-07-30
2025-07-30