微信扫码
添加专属顾问
我要投稿
阿里云通义千问团队推出全新Qwen3-Embedding模型,专为中文语义检索优化,开源可商用且适配主流向量数据库。 核心内容: 1. Qwen3-Embedding模型的多语言支持与中文优化特性 2. 模型在MTEB评测中的优异表现及对比分析 3. 部署指南与不同版本的应用场景选择
Qwen3-Embedding 是阿里云通义千问团队推出的专用文本嵌入模型,基于 Qwen 系列大模型开发,目标是生成高质量、可用于语义检索、RAG(检索增强生成)和相似度匹配的向量表示。
Qwen/Qwen-Embedding | ||||
Qwen/Qwen-Embedding-Chinese | ||||
Qwen/Qwen-Embedding-Mini |
多语言支持:支持中英文,主打中文语义表现。
指令微调:借助 Qwen3 指令微调框架,对用户问题与文档对建模更有效。
语义一致性强:在 OpenCompass、MTEB(Multilingual Text Embedding Benchmark)等评测中表现优秀。
开源可商用:模型权重完全开源,适合落地应用。
适配向量数据库:输出向量兼容 FAISS、Milvus、Weaviate 等数据库。
支持长文本:可处理较长输入(上下文窗口 4K+ token,取决于具体版本)。
仍较大:标准版维度为 1024,模型体积较大(不适合端侧轻量化部署)。
推理速度慢于 SOTA 小模型:如 BGE-small、MiniLM 等轻量 embedding 模型。
英语语义表现略逊:相对英文专用 embedding 模型如 E5
, GTE
表现略低。
GPU资源要求高:标准版在部署时至少需要 6GB 显存。
Qwen-Embedding | ||||
Qwen-Embedding-Mini |
pip install -U transformers accelerate sentence-transformers
from sentence_transformers import SentenceTransformermodel = SentenceTransformer("Qwen/Qwen-Embedding")texts = ["通义千问是一个强大的大语言模型", "ChatGPT 是 AI 聊天助手"]embeddings = model.encode(texts)print(embeddings.shape) # 输出为 (2, 1024)
或使用 transformers
原生方式:
from transformers import AutoTokenizer, AutoModelimport torchtokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-Embedding")model = AutoModel.from_pretrained("Qwen/Qwen-Embedding")inputs = tokenizer(["Qwen3是阿里推出的模型", "ChatGPT是OpenAI推出的模型"], padding=True, return_tensors="pt")with torch.no_grad(): outputs = model(**inputs) embeddings = outputs.last_hidden_state.mean(dim=1)
git lfs installgit clone https://huggingface.co/Qwen/Qwen-Embedding
使用 FastAPI 或 Gradio 封装接口
from fastapi import FastAPIfrom pydantic import BaseModelfrom sentence_transformers import SentenceTransformermodel = SentenceTransformer("Qwen/Qwen-Embedding")app = FastAPI()class InputText(BaseModel): text: str@app.post("/embed")def embed_text(data: InputText): embedding = model.encode(data.text) return {"embedding": embedding.tolist()}
✅ 3. 向量数据库集成示例(以 FAISS 为例)
import faissimport numpy as npdocs = ["千问是中文大模型", "GPT是英文大模型"]doc_embeds = model.encode(docs)dim = doc_embeds.shape[1]index = faiss.IndexFlatL2(dim)index.add(np.array(doc_embeds))query = "中文语义模型"query_embed = model.encode([query])distances, indices = index.search(np.array(query_embed), k=1)print(indices) # 返回最近的文档索引
Qwen-Embedding | ||||||
Qwen3-Embedding 是目前中文语义向量生成的强力选手,在检索增强生成(RAG)、多轮问答匹配等任务中表现优异,尤其在中英文混合场景中有显著优势。适合部署在企业级语义搜索平台,也可用于轻量文本推荐系统。
如果你需要 RAG系统中文嵌入模型首选,强烈建议优先考虑 Qwen3-Embedding。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-28
智能问答的两种路径: 问答对和RAG
2025-08-28
Plaud 是怎么做大模型产品的
2025-08-28
没有发布会,没有CEO站台,谷歌用一根“香蕉”赢得了欢呼
2025-08-28
阿里达摩院偷偷放大招!RynnEC让机器人“看懂世界”只需一句话
2025-08-28
腾讯分享万字实录:用户研究员在AI时代的“三位一体”能力模型
2025-08-28
从微软、谷歌十年用研老兵身上,我学到 3 个 AI 时代用户研究员的生存法则
2025-08-28
别让AI做它不擅长的事:Agent在业务场景中的工程实践
2025-08-28
大语言模型架构的演进:从Transformer到MoR
2025-08-21
2025-06-01
2025-06-21
2025-08-21
2025-08-19
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-08-27
2025-08-26
2025-08-25
2025-08-25
2025-08-25
2025-08-23
2025-08-23
2025-08-22