微信扫码
添加专属顾问
我要投稿
Jina-Embeddings v4重磅发布,支持多模态输入与多向量检索,为RAG架构带来革命性升级! 核心内容: 1. 多模态统一编码架构突破传统双塔设计 2. 动态适配器实现异构检索/语义匹配/代码检索三合一 3. 在视觉文档等关键任务评测中全面领先竞品
模力方舟现已正式上线来自 Jina AI 的新一代通用向量模型 ——Jina-Embeddings v4
,访问链接即可在线体验:https://ai.gitee.com/serverless-api?model=jina-embeddings-v4。
作为 Jina 系列嵌入模型的第四代版本,Jina-Embeddings v4
不仅支持文本、图像等多模态输入统一编码,更首次在图文场景下实现了多向量检索(Late Interaction)能力,在复杂视觉文档、多语言问答、代码搜索等多个关键任务中取得了全面领先的性能表现。
Jina-Embeddings v4
构建于Qwen2.5-VL-3B-Instruct
基座模型之上,在底层架构上实现了图文统一表示的闭环。与传统的 CLIP 双塔架构不同,v4 模型采用共享编码路径,图像先通过视觉编码器转化为 token 序列,与文本一起输入语言模型,进行上下文感知处理。这种方式显著缩小了图文语义空间中的模态差距(modality gap),同时具备更强的跨模态语义理解能力。
模型支持两种输出形式:
这两种模式均可在推理阶段灵活选择,便于适配不同的存储与算力环境。
为了支持更复杂的应用需求,Jina-Embeddings v4
内置三类基于 LoRA 微调的任务适配器(每类仅 60M 参数),可在推理阶段动态加载,分别针对:
这一设计不仅实现了「多任务共享主干 + 轻量化适配」的目标,也极大提升了模型在多样场景下的落地能力。
Jina-Embeddings v4
在多个标准评测中表现突出,尤其在图文匹配与视觉文档检索任务中大幅领先。
得益于共享编码器架构与多向量表示机制,v4 能够精准建模图表、表格、说明文档等复杂视觉内容,在新基准 Jina-VDR 和 ViDoRe 上显著优于 CLIP 与同类模型。
同时,Jina-Embeddings v4
在 MTEB 多语言语义匹配、长文本检索与代码搜索等任务中也保持强劲性能,展现出良好的通用性与扩展性。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-02
Doubao-Seed-1.6-Vision首发评测:硬核实测18个案例,看懂原生VisualCoT有多强!
2025-10-02
实测 Sora 2 :AI视频的“ChatGPT时刻”来了?八大场景教你解锁各种玩法(附邀请码)
2025-10-02
Sora 2带来3个颠覆性创新,这个行业或将被彻底重构
2025-10-02
Sora2 也许有 3 个月热度,但对电影工业的影响将是永恒
2025-10-01
Sora 2 发布:第一时间详解
2025-10-01
AI三巨头节前扎堆“交作业”:DeepSeek像蜜雪冰城,Claude像喜茶
2025-09-30
智谱旗舰模型GLM-4.6上线,代码能力全面进阶
2025-09-30
AI原生 vs. AI集成:产品经理的生存关键!
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-07-29
2025-09-08
2025-08-19
2025-09-17
2025-08-20
2025-09-14
2025-09-30
2025-09-29
2025-09-28
2025-09-27
2025-09-27
2025-09-25
2025-09-23
2025-09-22