免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Google 让 RAG 变得前所未有地简单:全新 File Search 工具震撼登场

发布日期:2025-11-16 09:17:40 浏览次数: 1530
作者:AI大模型观察站

微信搜一搜,关注“AI大模型观察站”

推荐语

Google 全新 File Search 工具让 RAG 技术变得前所未有的简单,彻底告别繁琐的向量数据库管理和高昂成本。

核心内容:
1. File Search 工具如何简化 RAG 流程
2. 低成本优势与计费模式解析
3. 实际应用案例与性能提升效果

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

如果你曾尝试自己搭一套 RAG(Retrieval-Augmented Generation,检索增强生成),你大概懂那种痛:要管理 embeddings(向量嵌入)、vector databases(向量数据库)、把文本正确地 chunking(切分),还得确保一切能和你的模型顺畅协作、又不至于烧钱。

好吧,Google 直接把这摊麻烦全给你搞没了。

他们悄悄地在 Gemini API 里_推出了全新的 File Search Tool,由它来替你处理 RAG 的所有繁琐工作_。你把文件丢进去,提出问题,它就把剩下的事都搞定。

图片来源 - Google
图片来源 - Google

这玩意儿是什么?

本质上,File Search 让 Gemini 能“理解”你的数据。你可以上传 PDF、DOCX、纯文本、JSON,甚至代码文件。当你向 Gemini 提问时,它不会瞎猜——而是检索你上传的文件,定位相关部分,并据此作答。

就像把你的私人“脑库”直接接到 Gemini 上。无需单独的 vector database、无需 retrieval pipeline(检索管线),也没什么需要你运维的。

就是:文件进,答案出。


很便宜,真的很便宜

这点着实让我意外。你不为查询或存储付费;只在一个时刻付费——当你索引文件的时候。

用 gemini-embedding-001 模型创建 embedding 的费用是每 100 万 tokens 收费 0.15 美元。和用 Pinecone 或 Weaviate 自己搭一整套管线相比,简直不值一提。

之后,你可以随便、无限次查询这些文件。


它到底怎么运作

File Search 会自动完成文件的 chunking、生成 embeddings、存储与检索,并把上下文注入到你的 Gemini 提示词中,从而把 RAG 简化到底。

这一切都在你已经在用的 generateContent API 调用里完成。

当你发起查询时,它会在幕后用最新的 Gemini Embedding 模型执行一次 vector search(向量搜索)。因此它理解的是“语义”,而不只是关键词。

更棒的是:Gemini 的回答会包含 citations(引用)——明确标出来源的文件和具体位置。你可以点进去核实。再也不用猜模型是不是在幻觉了。


用例:Beam 的极速游戏生成

早期测试方之一 Phaser Studio,把 File Search 用在他们的 AI 驱动游戏平台 Beam 上。

他们有一个包含 3000 多个文件的资料库——模板、代码片段、设计文档和其他内部数据。File Search 让他们可以在不到 2 秒内查询整库。过去要手工查同样的信息,得花上_好几个小时_。

他们的 CTO Richard Davey 如此总结:

“过去要用几天才能打样的点子,如今几分钟就能玩上手。”

相当疯狂。


一个简短的 Python 示例

上手不需要太多代码。看这个简单示例:

from google import genai
from google.genai import types
import time

client = genai.Client()
store = client.file_search_stores.create()
upload_op = client.file_search_stores.upload_to_file_search_store(
    file_search_store_name=store.name,
    file='path/to/your/document.pdf'
)
while not upload_op.done:
    time.sleep(5)
    upload_op = client.operations.get(upload_op)
response = client.models.generate_content(
    model='gemini-2.5-flash',
    contents='Summarize the research on sustainable AI.',
    config=types.GenerateContentConfig(
        tools=[types.Tool(
            file_search=types.FileSearch(
                file_search_store_names=[store.name]
            )
        )]
    )
)
print(response.text)
grounding = response.candidates[0].grounding_metadata
sources = {c.retrieved_context.title for c in grounding.grounding_chunks}
print('Sources:', *sources)

就是这样。上传文件、提出问题、拿到带来源的答案。搞定。


为何重要

每个 AI 开发者都会遇到同一个问题——模型听起来很强,但碰不到你公司的内部数据。

File Search 改变这一点,让 Gemini 能在无需复杂 retrieval setup(检索搭建)的前提下分析_你的_内容。

如果你在做需要时效性或垂直领域知识的东西——客服机器人、内部工具、文档问答——这就是游戏规则改变者。


自己试试

你现在就能在 Google AI Studio 里体验 File Search。有一个名为 “Ask the Manual” 的 demo——上传几份文件,提几个问题,看看答案的溯源效果有多好。

上手之后,你可以改造这个 demo,或者直接把它集成到你的应用里。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询