微信扫码
添加专属顾问
我要投稿
我们相信视觉领域即将发生范式转变,从而产生计算机视觉管道 2.0,其中一些传统阶段(例如标记)将被可提示的基础模型所取代。
为了更好地理解检索增强生成 (RAG) [1],我们首先来了解“提示”的定义。
提示是一种通过提供特定指令或查询来指导基础模型(例如多模式大型语言模型(MLLM))执行任务的技术。
在视觉领域,视觉提示[3] 使用视觉输入(例如图像、线条或点)来指示大规模视觉模型执行特定任务,通常包括模型未明确训练的任务。
下图展示了如何将可提示模型用来创建更强大的系统,其中的关键见解是模型可以通过视觉提示连接:YOLO-World 输出可以用作 SegmentAnything 的视觉提示。
RAG 将提示与信息检索的原理结合起来。[2] 当你使用 GenAI 模型(例如 GPT-4 或 LLaVA [5])时,你获得的答案来自(零样本)模型 [4],该模型受到其信息截止值(或其自身的训练数据,无论是数量还是质量)的限制。因此,模型的知识是静态的,在某个点之后不会更新。
检索增强生成 (RAG)使系统能够检索相关上下文,然后将其与原始提示相结合。此增强提示用于查询模型,提供模型原本无法获得的数据。
通过下图可以看到经分解后,典型的 RAG 工作流程:
检索:当给出查询或提示时,系统首先从知识库或外部数据源检索相关信息。
增强:然后使用检索到的信息来增强或改进模型的输入。
生成:最后,模型根据原始查询和检索到的信息生成响应。
如下图所示,Visual RAG 将检索增强生成 (RAG) 的概念应用于视觉任务。传统的 RAG 处理文本输入并检索相关文本信息,而 Visual RAG 则处理图像(有时还附带文本),并检索视觉数据或图像-文本对。
编码过程从文本编码器转变为视觉编码器(有时使用诸如 CLIP [6] 的基础模型来实现此目的),并且知识库(即矢量数据库)成为视觉信息而非文本文档的存储库。
虽然上述的系统为视频理解提供了一个令人印象深刻的框架,但实际上,上图描述的是一个原型。对于生产级 Visual RAG 系统,为了成功部署,应该考虑一些事项:
可扩展性:系统必须能够有效地处理大量视频数据和并发用户查询。
[1] Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks[2] Large Language Models for Information Retrieval: A Survey[3] Exploring Visual Prompts for Adapting Large-Scale Models[4] An embarrassingly simple approach to zero-shot learning[5] Visual Instruction Tuning[6] Learning Transferable Visual Models From Natural Language Supervision[7] Fine-tuning Language Models for Factuality[8] Written by The Tenyks Blogger
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-22
Alivia VLM:企业级视觉智能体在门店场景落地实战
2025-05-21
Gemini接管搜索、全家桶秒变通用Agent ,以及Google Glass is so back!|直击Google I/O
2025-05-19
扫描PDF转换太痛苦?pdf-craft秒转Markdown/EPUB,自动生成目录注释、引文对齐
2025-05-18
AI Studio 新增 Veo2 和 Imagen3.0 生成功能,中文支持有待优化
2025-05-16
万字长文:OCR/多模态大模型评测体系全景
2025-05-16
ollama 大版本0.7 发布,新引擎支持多模态模型
2025-05-15
退订即梦、可灵、Vidu、Mj,只因我有了Lovart
2025-05-15
全球首款设计Agent,Lovart在海外大火,马斯克亲自点赞
2024-09-12
2024-06-14
2024-06-17
2024-08-06
2024-08-30
2024-05-30
2024-11-28
2024-10-07
2024-10-16
2024-04-21