微信扫码
添加专属顾问
我要投稿
探索下一代代码理解和AI协作工具,Folda-Scan引领智能项目问答新纪元。 核心内容: 1. Folda-Scan:本地运行的智能项目问答工具,保护代码隐私 2. 核心功能:自然语言问答、深层语义理解、信息秒级定位 3. 应用场景:代码学习、技术文档生成、多项目管理、AI辅助开发
什么是 Folda-Scan ?
Folda-Scan
是一款革命性的智能项目问答工具, 完全在浏览器中本地运行 。它使用高级语义矢量化将您的代码库转变为对话伙伴,使代码理解和AI
协作变得前所未有的简单和安全。其采用尖端的Web
技术和AI
算法构建,可为您提供流畅、高效和安全的本地代码交互体验。
Markdown
,为 AI
助手(ChatGPT
, Claude
等)提供完美“食粮”。LLM
交互,显著降低 API
调用成本和等待时间。Dockerfile
等项目配置文件。Folda-Scan
的魔法源于其创新的语义向量化引擎:
AI
的协作,减少 API
调用成本。Folda-Scan
通过提供安全、高效的代码交互体验,帮助开发者更好地利用其代码资产。
如果不想自己安装,可以使用官方提供的演示站点( https://file.wen.bar )
如果你不想自己构建,可以跳过,直接阅读下一章节
Dockerfile
没有采用多阶段构建,所以编译出来的镜像有点大
# 使用 Node.js 作为基础镜像
FROM node:18
# 设置工作目录
WORKDIR /usr/src/app
# 复制 package.json 和 package-lock.json
COPY package*.json ./
# 安装依赖
RUN npm install
# serve 不是项目依赖,需要单独安装:
RUN npm install serve
# 复制应用代码
COPY . .
# 构建应用
RUN npm run build
# 暴露端口
EXPOSE3000
# 启动应用
# 使用 npx (如果 serve 未作为项目依赖安装,npx 会临时下载)
# CMD ["npx", "serve", "-s", "out", "-l", "3000"]
# 或者,如果 serve 是项目依赖 (通过 npm install 安装了)
CMD ["./node_modules/.bin/serve", "-s", "out", "-l", "3000"]
构建镜像和容器运行的基本命令如下?
# 下载代码
git clone https://github.com/oldjs/web-code-Agent.git
# 通过代理
git clone https://gh-proxy.com/github.com/oldjs/web-code-agent.git
# 进入目录
cd web-code-agent
# 构建镜像
docker build -t wbsu2003/web-code-agent:v1 .
# 运行容器
docker run -d \
--restart unless-stopped \
--name web-code-agent \
-p 3250:3000 \
wbsu2003/web-code-agent:v1
在群晖上以 Docker 方式安装。
在注册表中搜索 wbsu2003
,可能要翻到第二页才能找到 wbsu2003/web-code-agent
,版本选择 latest
。
本地端口不冲突就行,不确定的话可以用命令查一下
# 查看端口占用
netstat -tunlp | grep 端口号
3250 | 3000 |
如果你熟悉命令行,可能用 docker cli
更快捷
# 运行容器
docker run -d \
--restart unless-stopped \
--name web-code-agent \
-p 3250:3000 \
wbsu2003/web-code-agent
也可以用 docker-compose
安装,将下面的内容保存为 docker-compose.yml
文件
version: '3'
services:
web-code-agent:
image: wbsu2003/web-code-agent
container_name: web-code-agent
restart: unless-stopped
ports:
- 3250:3000
然后执行下面的命令
# 新建文件夹 folda-scan 和 子目录
mkdir -p /volume1/docker/folda-scan
# 进入 folda-scan 目录
cd /volume1/docker/folda-scan
# 将 docker-compose.yml 放入当前目录
# 一键启动
docker-compose up -d
如果在浏览器中输入 http://群晖IP:3250
,虽然能看到主界面,但是会有警告提示
其实原因主要是文件系统访问(File System Access API
)和 Service Worker
必须使用 https
协议,当然浏览器本身也很重要, Firefox
和 Safari
可能不支持或部分支持
实际访问地址为: https://code.laosu.tech
code.laosu.tech | http://192.168.0.197:3250 | Folda-Scan |
在 npm
中的设置
在浏览器中输入 https://code.laosu.tech
,这次不会再有警告了
Folda-Scan
将在本地快速构建语义索引。以本项目为例,输入用户名和仓库名之后,可以下载代码
当然前提是你能访问
https://api.github.com
在本机解压之后,点 选择文件夹
导入项目代码
下载的报告是 FS_Report_20250601_1146.txt
这样的文件,包含了项目文件、文件夹、函数、方法以及它们之间的调用关系、可用于 ChatGPT
、Claude
等
选择 与代码对话
现在可以直接跟代码库对话了
稍等一会儿,你就会看到答案了
软件本身不需要设置大模型,但是从答案看,会向后端/云端(https://text.pollinations.ai/openai)发送对话信息
你可以将代码库当做知识库,这样就好理解了,虽然不会上传完整的代码,但是代码片段还是会的,这也是为什么会减少 API
调用费用的根本原因
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-21
上下文工程如何重塑智能体的“思考方式”?
2025-07-21
FastGPT工作流实战:我用"标签法"让多知识库问答准确率提升80%
2025-07-21
从 Workflow 到 AI Agent:对话式系统架构的演进路径
2025-07-21
文本处理专用模型:Qwen3 Embedding 和 Reranker 详解
2025-07-21
让manus从零到一的上下文工程到底是什么?一文起底
2025-07-21
大模型上下文工程(Context Engineering)详解
2025-07-21
埃森哲首席AI官谈智能体
2025-07-21
AI在清华,带来这些新体验!
2025-05-29
2025-05-23
2025-04-29
2025-05-07
2025-05-07
2025-05-07
2025-06-01
2025-04-29
2025-06-07
2025-05-20
2025-07-21
2025-07-21
2025-07-21
2025-07-19
2025-07-19
2025-07-19
2025-07-19
2025-07-19