微信扫码
添加专属顾问
我要投稿
Vercel用文件系统和Bash命令颠覆了传统RAG方案,成本直降75%且效果更优!核心内容:1. Vercel创新RAG方案的技术原理:用grep/find/bash命令替代向量数据库2. 文件系统检索在代码/文档场景的独特优势与实现细节3. 该方案的性能表现、成本效益及适用边界分析
不建向量库,也能做 RAG?Vercel 给了一个新答案
Vercel 发了一篇博客:Build knowledge Agents without embeddings。开源了一个知识库agent问答项目 Knowledge Agent Template。
该项目不靠“embeddings”实现了一个知识库搜索问答系统。它把知识库当成一个可搜索的文件系统:模型在 sandbox 里调用 grep、find、head、cat 这些普通命令,先找文件,再读文件,再综合答案。
按照官方博客的说法,他们内部一个销售电话总结 agent 的单次成本,从大约 $1.00 降到了 $0.25,而且输出质量还更好。
为什么一套看起来很普通的文件系统操作,被 Vercel 重新组织之后,可以成为一条足够实用的 RAG 路线?
这篇文章就沿着这条主线展开,主要看三件事:
站在用户视角看,这个项目做的事情其实很好理解:
你先把知识接进来,用户再像平常聊天一样提问,Agent 则在后台真的去翻这些文件,然后把找到的内容组织成答案。
这里的“知识”,可以是 GitHub 仓库、文档内容、YouTube 转录等。接进来之后,它们不会先进向量库,而是会被整理成一份可以搜索的文件集合。
所以对用户来说,体验大概就是三步:
如果本地知识里找不到足够信息,当前这套实现还允许它再补一次 web_search。
从技术上看,这里面真正关键的动作也不多:
bash 和 bash_batch 两个受限工具,让它通过 grep、find、head、cat 这些命令完成搜索和阅读。Vercel 这套方案最有价值的地方,是把文件系统检索做成了一条可复用、可解释、可控成本的工程路径。
我找到了我关注的核心文本,其实就是一段系统提示词,源文件在 BASE_SYSTEM_PROMPT
重点是 Fast Search Strategy 这一段。
Agent 底层模型对bash读文件的操作天然了熟于心,Claude code/Codex 每次打开的时候就需要读文件,读系统指令,用户自定义指令,skill列表等。
所以这段提示词里最值得看的,是这些命令如何被约束、组合和工程化。
BASE_SYSTEM_PROMPT 里开头一句是:
ALWAYS prefer `bash_batch` over sequential `bash` calls. Combine search and read in the same batch.
提示词首先约束优先使用 bash_batch 而不是串行 bash, 同时尽量在一次batch执行中完成搜索文件和读文件操作。整段提示词都是这一句话的详细展开。
内部定义了一个函数可以批量处理多条bash指令, 比如大模型可以一次把以下三条指令合并发下去:
bash_batch: [
"grep -rl "keyword" docs/source1/ --include="*.md" | head -5",
"grep -rl "keyword" docs/source2/ --include="*.md" | head -5",
"head -100 docs/source1/getting-started/index.md"
]
bash_batch 的价值主要在于把多条命令打包成一次工具调用。
它省下来的主要是:
对 Agent 来说,这更像是一次性打包检索计划:少几轮 tool loop,往往就少几轮试探和 token 消耗。
提示词里面给出bash指令指导用法:
### Quick reference
| Task | Command |
|------|---------|
| Find files by content | \`grep -rl "keyword" docs/ --include="*.md" | head -5\` |
| Multi-keyword search | \`grep -rlE "term1|term2" docs/ --include="*.md" | head -5\` |
| Find files by name | \`find docs/ -name "*routing*" -name "*.md"\` |
| Read file (partial) | \`head -100 docs/path/file.md\` |
| Read file (full) | \`cat docs/path/file.md\` |
| Search with context | \`grep -n -C3 "keyword" docs/path/file.md\` |
然后提示词里面给出了正面样例和反面样例, 依然是提倡合并多个bash 调用。
### Good vs Bad
**Good** — 1-2 calls:
1. \`bash_batch\`: grep across likely dirs + read obvious files in one call
2. \`bash_batch\`: read remaining files from grep results
**Bad** — 5+ calls:
1. \`find docs/ -maxdepth 2 -type d\`
2. \`grep -rl "keyword" docs/source1/\`
3. \`grep -rl "keyword" docs/source2/\`
4. \`cat docs/source1/file1.md\`
5. \`cat docs/source2/file2.md\`
最后的Rules给出了更多bash优化的参考. 比如:
head -N 输出更小的文本,而不是一下子获取整个文件内容grep -rlE "term1|term2" 同时搜索多个关键词grep -rl 而不是 grep -r,只获取文件路径,忽略匹配行提示词里所有示例,本质都在强化同一个策略:
grep -rl 找路径head -N 只读局部它提供的是一种检索行为模板:
cat 大文件如果说传统 RAG 的很多工作花在“如何切 chunk”,那 Vercel 这里花的心思更像是:如何让模型像一个克制的命令行使用者。
如果你的知识库本来就是一堆 Markdown、日报、想法笔记、命令记录、Prompt 模板,那么先走文件系统检索几乎是最自然的选择。
它比 embedding 更轻,也更接近日常工作方式:
同时这也启发我们,在做个人知识库的时候,语义化的文件命名和文件夹命名能极大提高agent的搜索效率。很多时候只要给 Agent 一份干净的目录,再配上一些 prompt 约束,已经能得到很不错的效果。
另外我说的文件系统检索完全不需要把 Vercel 这一整套都搬过来。
像 sandbox、snapshot、共享沙箱池这些设计,更多是为了把系统做成一个能稳定服务多用户、多会话、多平台的产品。对个人来说,这套工程通常太重了。
而且今天很多 Agent 本来就已经会做这件事。
无论是 Claude Code、Codex,还是其他带 bash 能力的 coding agent,它们本来就会:
所以个人最有参考价值的,不是整套 Vercel 基础设施,而是它向我们释放的信号:最简单的文本匹配也许是最高效的检索方式。
这是它最天然的主场。
代码库里最重要的信息,本来就大量存在于:
这些都非常适合 lexical search,而不太需要语义嵌入先做一层“翻译”。
文档站也很适合,尤其是有清晰目录树、标题层级和稳定术语的文档。
比如“认证怎么配”“路由在哪里定义”“某个 Hook 支持哪些参数”这类问题,本质都是在找明确的局部证据。
说完优点,也得把边界说清楚。
文件系统 RAG 也有很清晰的边界。下面这些情况里,embedding 或 hybrid search 往往更稳。
这其实是 embedding 诞生的根本原因。
如果用户问的是模糊概念、近义表达、口语化描述,而知识库里的写法完全不同,grep 很可能就是搜不到。
例如:
只靠关键词,很容易漏召回。
比如 OCR 文档、杂乱 PDF、客服工单、聊天记录、大量口语转写,这些内容往往命名不规范、结构不稳定、同义表达很多。
这种情况下,光靠路径和关键词,效果通常不会太好。
原始 grep 擅长“找到包含这个词的文件”,但不擅长“把最相关的前几个文件稳定排到最前面”。
在文件很多、匹配很多的情况下,你很快就会遇到两个问题:
这时更自然的下一步,往往是先引入更成熟的 lexical ranking,比如 BM25、SQLite FTS、搜索引擎索引,甚至再叠一层 reranker。
。
如果同一件事在不同团队里有不同叫法,或者中文、英文、缩写混着来,文件系统检索的 recall 会变差。
这类场景里,语义检索或者至少 hybrid search 往往更稳。
Vercel的做法是一种很“返璞归真”的工程方案。它不是万能解,但在代码库、API 文档、内部知识库这类强结构场景里,工程价值非常高。
这套方法很务实。但是它不覆盖所有检索问题
文件系统加关键词搜索,在这些场景里通常非常强:
但如果问题换成下面这些,embedding 或 semantic search 依然会更重要:
所以社区里比较成熟的结论,并不是“以后都不用 embedding 了”,而是:先看语料,再定检索原语;很多时候 hybrid 才是最后的形态。
不是抛弃 embedding,而是抛弃“默认先上 embedding”的思维惯性。
很多时候,真正好用的 RAG,并不需要一开始就很重;它更需要清晰的证据路径、稳定的检索行为和可解释的结果。
https://vercel.com/blog/build-knowledge-agents-without-embeddings
https://vercel.com/templates/ai/chat-sdk-knowledge-agent
https://github.com/vercel-labs/knowledge-agent-template
https://github.com/vercel-labs/knowledge-agent-template/blob/fa7414d688175be0903255de7f4318be5df33d4e/packages/agent/src/prompts/chat.ts
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-25
GraphRAG新范式 = LPG + 本体RDF
2026-03-25
基于 Ray 的蚂蚁数据构建引擎在搜推和 RAG 场景的实践
2026-03-23
知识基座:让“AI 越用越懂业务”的团队经验实践【天猫AI Coding实践系列】
2026-03-21
面向手机Agent的记忆系统工程:OPPO的Agentic-RAG实战与演进
2026-03-20
为什么总感觉 Claude Code 比 Cursor 聪明?真正的原因根本不是模型能力!
2026-03-18
从RAG到GraphRAG:货拉拉元数据检索应用实践
2026-03-17
企业AI落地三重门,用友如何破局?
2026-03-16
Java 开发者的轻量级 RAG 方案:MeiliSearch 混合搜索实战
2026-01-15
2026-02-13
2025-12-31
2026-01-02
2026-02-03
2026-01-06
2026-02-03
2026-02-06
2026-02-02
2026-01-28
2026-03-17
2026-03-11
2026-02-22
2026-02-15
2026-02-04
2026-02-03
2026-01-19
2026-01-12