微信扫码
添加专属顾问
我要投稿
BGE一站式解决大模型检索难题,从多模态到多语言,从嵌入到重排序,全面覆盖你的检索需求。 核心内容: 1. BGE的全面功能与一站式解决方案 2. 多模态与多语言支持的技术突破 3. 轻量级Reranker与高效微调工具的实际应用
❝你还在为大模型检索效果拉胯、RAG落地难如登天、跨模态检索头发日渐稀疏而苦恼吗?别急,今天我们要聊的BGE(BAAI General Embedding),或许就是你梦寐以求的“检索秘籍”!本文不仅带你深扒BGE的黑科技,还手把手教你如何用API一键起飞,助你在AI检索的内卷时代,杀出一条血路!
自从大模型(LLM)横扫AI江湖,RAG(Retrieval-Augmented Generation,检索增强生成)就成了让大模型“知天下事”的标配。可惜,检索这事儿远比想象中复杂:
这时候,BGE带着一身“黑科技”闪亮登场,直接把检索这摊事儿做成了“全家桶”——你要的,它全有!
BGE,全称BAAI General Embedding,是由北京智源研究院(BAAI)主导的开源项目。它的目标很简单粗暴:让检索增强大模型(RAG)变得极致简单、极致强大、极致易用。
BGE不是单一模型,而是一整套“检索增强生态”:
一句话总结:BGE就是检索增强的“全能工具箱”,让你从此告别东拼西凑的痛苦。
2025年3月,BGE-VL(Visual-Language)模型横空出世,直接把多模态检索玩出了新高度:
BGE-multilingual-gemma2模型,基于Gemma-2-9B大模型,支持多语言、多任务,横扫MIRACL、MTEB-fr、MTEB-pl等多语言检索榜单,SOTA拿到手软。
BGE-reranker-v2.5-gemma2-lightweight,基于Gemma-2-9B,支持token压缩、分层输出,资源消耗大幅降低,性能依然在线。再也不用担心“显存告急”了!
BGE-en-icl模型,支持上下文学习(ICL),只需给几个示例,模型就能理解复杂任务,嵌入表达更丰富,检索效果更上一层楼。
OmniGen模型,支持各种复杂图像生成任务,无需ControlNet、IP-Adapter等插件,也不用额外的姿态/人脸检测模型,一站式搞定。
BGE的模型矩阵堪称“豪华自助餐”,无论你是做中文、英文、多语言,还是多模态检索,总有一款适合你:
(更多模型详见官方文档,按需选型,绝不踩坑)
pip install -U FlagEmbedding
# 若需微调支持
pip install -U FlagEmbedding[finetune]
from FlagEmbedding import FlagAutoModel
model = FlagAutoModel.from_finetuned(
'BAAI/bge-base-en-v1.5',
query_instruction_for_retrieval="Represent this sentence for searching relevant passages:",
use_fp16=True
)
sentences_1 = ["I love NLP", "I love machine learning"]
sentences_2 = ["I love BGE", "I love text retrieval"]
embeddings_1 = model.encode(sentences_1)
embeddings_2 = model.encode(sentences_2)
similarity = embeddings_1 @ embeddings_2.T
print(similarity)
是不是比你想象中还简单?更详细的用法,官方教程应有尽有。
BGE不仅仅是“检索工具箱”,它的野心是让RAG 2.0成为现实:
BGE的目标很明确:让每一个AI开发者都能轻松拥有最强检索能力,让RAG真正落地到每一个应用场景。
一句话:只要你有检索需求,BGE都值得一试!
说了这么多,BGE到底怎么落地?别急,贴心如我,已经把BGE的模型封装成了符合OpenAI风格的Web API,名字就叫——AntSK-PyApi!
pip install -r requirements.txt
python start.py
# 或者
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
POST /v1/embeddings
{
"model": "BAAI/bge-large-zh-v1.5",
"input": ["你好世界", "人工智能技术"]
}
返回:
{
"data": [
{
"object": "embedding",
"index": 0,
"embedding": [0.1, 0.2, 0.3, ...]
}
],
"object": "list",
"model": "BAAI/bge-large-zh-v1.5",
"usage": {
"prompt_tokens": 12,
"total_tokens": 12
}
}
POST /v1/rerank
{
"model": "BAAI/bge-reranker-v2-m3",
"query": "什么是人工智能?",
"documents": [
"人工智能是计算机科学的一个分支",
"今天天气很好",
"机器学习是人工智能的子领域",
"深度学习属于机器学习范畴"
],
"top_n": 3,
"return_documents": true
}
返回:
{
"id": "uuid-string",
"results": [
{
"document": {
"text": "人工智能是计算机科学的一个分支"
},
"index": 0,
"relevance_score": 0.95
}
],
"tokens": {
"input_tokens": 25,
"output_tokens": 0
}
}
import requests
# 生成嵌入向量
url = "http://localhost:8000/v1/embeddings"
data = {
"model": "BAAI/bge-large-zh-v1.5",
"input": ["你好世界", "人工智能技术"]
}
response = requests.post(url, json=data)
embeddings = [item["embedding"] for item in response.json()["data"]]
print(f"生成了 {len(embeddings)} 个向量,维度: {len(embeddings[0])}")
# 文档重排序
url = "http://localhost:8000/v1/rerank"
data = {
"model": "BAAI/bge-reranker-v2-m3",
"query": "机器学习算法",
"documents": [
"深度学习是机器学习的一个分支",
"今天天气不错",
"神经网络是深度学习的基础",
"Python是编程语言"
],
"top_n": 2,
"return_documents": True
}
response = requests.post(url, json=data)
for item in response.json()["results"]:
print(f"相关度: {item['relevance_score']:.3f} - {item['document']['text']}")
docker build -t antsk-py-api:latest .
docker run -d \
--name antsk-py-api \
-p 8000:8000 \
-v ./models:/app/models \
-e MODEL_STORAGE_PATH=/app/models \
-e API_HOST=0.0.0.0 \
-e API_PORT=8000 \
-e LOG_LEVEL=INFO \
-e USE_FP16=true \
antsk-py-api:latest
BAAI/bge-large-zh-v1.5
BAAI/bge-large-en-v1.5
BAAI/bge-m3
bge-small-zh-v1.5
BAAI/bge-reranker-v2-m3
在AI检索“卷”到飞起的今天,BGE用一套“全家桶”方案,把检索增强做到了极致。无论你是RAG开发者、AI创业者,还是科研小白,BGE都能让你事半功倍,少走弯路。
还在为检索发愁?不如试试BGE,让你的大模型“如虎添翼”,让RAG真正飞起来!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-15
两句话,让Claude Code+Kimi K2 跑了3小时爬完17个竞品网站、做了一份深度市场数据分析报告
2025-07-15
n8n技术详细介绍,使用场景,部署使用和详细案例
2025-07-15
没经验也能开发复杂项目?我用这个AI神器,给自己配了个7人开发团队!
2025-07-15
AI知识库系列之六:只需 3 步,手把手教你用Coze搭建AI知识库,个人/企业都适用!
2025-07-15
Kimi K2智能体能力的技术突破:大规模数据合成 + 通用强化学习
2025-07-14
一行命令把 Kimi K2 接到你的 Claude Code!
2025-07-14
Kimi K2里找到了DeepSeek V3架构
2025-07-14
Kimi K2详测,Claude国产平替有了
2025-06-17
2025-06-17
2025-04-29
2025-04-29
2025-04-29
2025-05-29
2025-05-12
2025-05-14
2025-07-07
2025-05-20
2025-07-15
2025-07-13
2025-07-08
2025-07-04
2025-07-03
2025-06-28
2025-06-25
2025-06-25