免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

我搭了一套国产的小龙虾方案,成本可控,还能 24小时自动干活

发布日期:2026-03-10 06:46:47 浏览次数: 1544
作者:Datawhale

微信搜一搜,关注“Datawhale”

推荐语

国产AI自动化编程方案,成本低、效率高,24小时不间断工作!

核心内容:
1. 国产轻量级工具组合(nanobot+Seed 2.0+Claude Code)的优势解析
2. 三层架构设计实现AI自主管理任务
3. 实际应用效果与成本控制方案

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 Datawhale干货 

作者:筱可,Datawhale成员

前几天我们发了一篇10w+,是国外大神的 OpenClaw 使用方案,后台收到好多小伙伴的留言:太烧Token了,国内用不了Claude。

Image

我们就想着能不能搭一套国产的入门方案,成本可控,还能 24 小时自动干活?

试了一圈,真让我们搞出来了。

用的是 nanobot(轻量级框架)+ Seed 2.0(国产大模型)+ Claude Code(终端 AI 工具)这个组合,搭了一套自动化编程系统。VLM 视觉任务、数据分析、全栈开发,三个任务排队自动跑完。

今天就把这套方案拆开给大家看看,怎么实现的,效果如何,成本到底多少。

一、为什么选这个组合?

先说说为什么是这三个工具。

nanobot超轻量级的 AI 助手框架,只有 4000 行代码,内存占用小。在这套系统里它是任务协调者——定时检查任务队列,分配任务给 AI 执行器,管理任务状态。

这里聪明的小伙伴一定会问,为什么不用OpenClaw,你封面不是OpenClaw吗??

Image

说多了都是泪:OpenClaw 有 43 万行代码,单跑不卡,但我 64GB 内存的电脑同时开着 VSCode 就会卡。GitHub Issues 里 Bug 比 features 还多,连 Karpathy 都吐槽它是"40 万行代码的怪物"。

Image

相比来看,nanobot 只有 4000 行代码,轻量、稳定、好改造。

豆包大模型2.0字节跳动最新发布的大模型,前几天刚进 LMArena 全球前十,成了国产第一。关键是它的多模态理解、长程推理、Agent 能力都挺能打,字节家的多模态做得多好,无需多言。

Claude CodeAnthropic 的终端 AI 编程工具,负责实际执行代码开发。它本来是调用 Claude 的,但火山引擎的 API 兼容 Anthropic 协议,所以可以直接接入Seed 2.0,支持国产平替。

这三个组合起来,就是一个能自动运转24小时无休的 AI 团队。

二、三层架构:让 AI 自己管理自己

想看效果和怎么用的直接看下一节,这节可以跳过。

整个系统分三层,听起来复杂,其实逻辑很简单。

目录结构

workspace/├── .ai/                    # 元数据目录│   ├── todo.md            # 任务队列│   ├── META.md            # 元指令│   └── start-with-gateway.sh  # 启动脚本├── case1/                 # 任务1工作目录├── case2-data-report/     # 任务2工作目录└── case3-lantern-festival/ # 任务3工作目录

数据层:任务队列和完成标记

所有任务都记录在一个 todo.md 文件里,每个任务有五种状态:

当 AI 完成任务后,会创建一个。task-complete.done 标记文件,调度器检测到这个文件就知道任务完成了。

调度层:定时检查和任务分配

nanobot 的 gateway 每 2 分钟触发一次,读取 todo.md,发现 PENDING 状态的任务就分配给执行层。这里有个关键设计:无状态调度器

什么意思?就是每次调度器运行都是独立的,不依赖上次的状态。崩溃了也不影响下次执行,非常稳。

执行层:后台持久化运行

任务在 tmux 会话里跑,Claude Code 接收指令后开始干活。tmux 的好处是可以后台运行,你想看进度就 tmux attach 进去看一眼,不想看就让它自己跑。

整个流程是这样:

用户创建任务 → Cron 每 2 分钟触发调度器 → 调度器发现 PENDING 任务 → 标记为 RUNNING 并发送给 Claude → Claude 执行完创建.done 文件 → 下次调度器检测到标记 → 更新为 DONE 状态 → 继续处理下一个任务。

三、实战测试:三个任务验证能力

搭好这个架构,就开始跑任务了。我设计了三个并发测试,重点验证这个AI 编程团队的 VLM 多模态、长程推理、全栈开发能力。

测试一:VLM 视觉任务——让AI直接理解图片

第一个 执行的任务是复刻一个后台管理系统的界面。我给这个 AI 团队一张 OpenClaw Dashboard 的设计图,让它生成 HTML。

目标界面

Image

结果第一次就踩坑了。

我在 PRD 里用文字描述了“这个目标的UI图的布局和颜色”,而且是描述他是一个管理后台,但实际的图是“OpenClaw Dashboard”。Claude 按我的文字描述生成了一个完全错误的页面——布局对不上,颜色也不对,甚至不少的字都对不上OpenClaw Dashboard

这时候我才反应过来:VLM 任务不该用文字描述图片,应该让 AI 自己看

调整后的 PRD 只写了一句话:“读取 PRD 里面指定要求的图片内容后,分析图片,并生成代码”。

第二次跑就顺了。生成的页面布局还原度 95%,颜色也对上了 90%。侧边栏、顶部导航、数据卡片、图表区域,该有的都有,连颜色渐变都还原得很到位。

复刻效果

Image

Seed 2.0 的多模态理解能力确实强,图表识别、空间理解、颜色提取都很准。关键是让 AI 自己看,而不是你替它描述。

测试二:长程执行——17 分钟不掉链子

第二个任务是数据分析,针对私有数据从 CSV 清洗到生成可视化报告,验证长时间执行的稳定性。

Image

整个流程跑了 17 分钟:

  • 数据清洗:5 分钟

  • 分析计算:4 分钟

  • 图表生成:6 分钟

  • 输出报告:2 分钟

中间我看调度器每 2 分钟触发一次,但 AI 团队一直在跑,没被干扰。本来最担心的是任务跑太久会不会掉链子,结果挺稳,一步没落。

生成的数据报告

Image

Python 代码生成准确,Matplotlib 图表配置合理,最后输出的 HTML 报告排版也很专业。Seed 2.0 在这种长程任务上的稳定性,以及代码生成的准确性,确实让人放心。

测试三:全栈开发——一个人干完前端到数据库

前两个测试验证 VLM 和长程推理,第三个任务是做一个元宵灯会应用,包含前端界面、后端逻辑、数据库配置,一整套前后端架构。

这三个测试我是同时跑的,Gateway 同时向三个员工发出了调度指令,三路任务同时在推进,各自独立,互不干扰。

中间 T003 跑的时候我 tmux attach进去看了眼,AI 团队的员工正在理解 PRD 里的需求,确认方向对就detach出来——任务继续在后台跑,完全不需要人盯着。

Gateway 监控效果

Image

这种"想看就看,看完就走"的感觉挺舒服。三路任务并行推进,25 分钟全部跑完,如果串行执行同样三个任务大概需要 50 分钟以上,并行直接省了大概一半时间

最后生成的元宵灯会应用完成度确实比较

项目目录结构

Image

项目运行效果

深色星空背景配上金色主题,节日氛围到位。三大功能模块——猜灯谜、许愿天灯、排行榜——交互流畅,视觉统一。猜灯谜有题目展示、答案输入和提示功能;许愿天灯支持写心愿、字数限制和放飞动画;排行榜还分了猜谜高手和许愿达人两个维度。

这里特别值得夸的是 Seed 2.0 的全栈开发能力——从 Next.js 项目搭建,到 React 组件编写,再到 Prisma 数据库配置,一整套前后端架构都能独立完成。作为 AI 自动生成的全栈项目,这个效果已经超出预期。

四、算笔账:40 元/月能干多少活?

说到成本,我实际跑了三个任务:VLM视觉、数据分析、全栈应用,用了火山引擎 Lite 套餐(40元/月)5%的额度。

Image

对个人开发者来说,这个价格是挺合适的。大家可按需选择:szacq.cn/YEubD/

五、快速上手:五步部署并使用

如果你想自己试试,部署其实很简单,15 分钟搞定。

第一步:安装 nanobot

# 克隆源码git clone https://github.com/HKUDS/nanobot.gitcd nanobot
# 创建虚拟环境并安装python -m venv .venvsource .venv/bin/activatepip install -e .
# 初始化配置nanobot onboard
# 验证安装nanobot --version

执行完会创建~/.nanobot/config.json 配置文件和工作空间目录。

第二步:接入 Seed 2.0

火山引擎方舟平台(szacq.cn/YEubD/购买 Coding Plan 套餐(Lite 40 元/月就够用),然后创建 API Key。

编辑~/.nanobot/config.json(记得改自己的api key):

{  "providers": {    "volcengine": {      "apiKey": "your-volcengine-api-key",      "apiBase": "https://ark.cn-beijing.volces.com/api/coding/v3"    }  },  "agents": {    "defaults": {      "model": "doubao-seed-2.0-code",      "provider": "volcengine",      "maxTokens": 8192,      "temperature": 0.1    }  }}

验证一下:

nanobot agent -m "你好,测试连接"

第三步:配置 Claude Code

# 安装Claude Codenpm install -g @anthropic-ai/claude-code
# 设置环境变量(建议加到 ~/.bashrc)export ANTHROPIC_API_KEY="your-volcengine-api-key"export ANTHROPIC_BASE_URL="https://ark.cn-beijing.volces.com/api/coding"

关键点:记得改自己的 api key。

第四步:让AI团队自己协作

配置定时任务让 nanobot 定期执行调度逻辑:

nanobot agent -"请创建一个定时任务,每2分钟执行一次以下操作:读取 workspace/.ai/todo.md检查所有任务(T001/T002/T003)的状态对于每个状态为 PENDING 且依赖满足的任务:  T001 → 通过 tmux 向 claude-case1 会话发送执行 case1/PRD.md 的指令  T002 → 通过 tmux 向 claude-case2 会话发送执行 case2-data-report/PRD.md 的指令  T003 → 通过 tmux 向 claude-case3 会话发送执行 case3-lantern-festival/PRD.md 的指令发送指令后更新该任务状态为 RUNNING如果检测到某个任务目录下存在 .task-complete.done 文件,将该任务状态更新为 DONE如果所有任务都是 DONE,执行命令: pkill -f \"nanobot gateway\" 停止 gateway 服务"

核心调度逻辑

第五步:让 AI 团队开始干活

搭好后,用一个启动脚本 .ai/start-with-gateway.sh一键启动整个系统:

#!/bin/bash
WORKSPACE_DIR="/your/workspace/path"NANOBOT_DIR="/your/nanobot/path"
# 清理旧环境for session in gateway claude-case1 claude-case2 claude-case3 logs; do    tmux has-session -t "$session" 2>/dev/null && tmux kill-session -t "$session"donepkill -f "nanobot gateway" 2>/dev/null || truesleep 1
# Gateway(任务调度器)tmux new-session -d -s gatewaytmux send-keys -t gateway "cd $NANOBOT_DIR && source .venv/bin/activate && nanobot gateway" C-m
# 并行启动 3 个 Claude 执行器tmux new-session -d -s claude-case1tmux send-keys -t claude-case1 "cd $WORKSPACE_DIR/case1 && claude --dangerously-skip-permissions" C-m
tmux new-session -d -s claude-case2tmux send-keys -t claude-case2 "cd $WORKSPACE_DIR/case2-data-report && claude --dangerously-skip-permissions" C-m
tmux new-session -d -s claude-case3tmux send-keys -t claude-case3 "cd $WORKSPACE_DIR/case3-lantern-festival && claude --dangerously-skip-permissions" C-m
# 日志监控tmux new-session -d -s logstmux send-keys -t logs "tail -f /tmp/nanobot_gateway.log" C-m

启动后得到 5 个独立的 tmux 会话:gateway(调度器)、claude-case1/2/3(执行器)、logs(日志监控)。

键参数:--dangerously-skip-permissions让 Claude Code 自动接受所有权限请求,避免在 tmux 里出现交互阻塞。

之后只要维护AI团队的todo.md 和PRD.md就可以自动运行了。想更加自动化的小伙伴,可以接到飞书等通讯工具,交互会更加方便。

番外篇:几个踩坑经验

搭建了这样一个 AI 团队,总结几个经验:

1. PRD 就是契约,不要边做边改

一开始我尝试过让 AI 边执行边修改,想着这样可以灵活调整。结果发现完全让 AI 自己控制节奏是行不通的——没有约束的执行会出现大量偏差,前后端逻辑对不上、代码和实际需求脱节。

后来我明白:信息必须在一开始对齐,PRD 就是契约。现在的做法是花足够时间把 PRD 写清楚——不是简单描述“要做什么”,而是明确“做成什么样”。PRD 一旦定下来,就是 AI 执行的依据,不轻易变动。

2. 验收标准要量化

需求文档不能只写需求,必须写验收标准。比如 VLM 任务,验收标准从“生成好看的 html 页面”改成“布局还原度>90%,颜色匹配度>85%,包含指定的 5 个组件”。目标清晰了,AI 执行才有方向,验收也有依据。

3. 大任务必须拆解

每个子任务控制在 30 分钟内可完成,成功率远高于让 AI 一次干完。类似安装大量依赖(如 pytorch)、build 大型 Docker 镜像这种,就不适合用这套系统。

写在最后

Seed 2.0 进 LMArena 全球前十,字节同期还发布了 Seedance 2.0,国产 AI 的进步速度确实惊人。这次用 Seed 2.0 搭这套系统,最大的感受是:国产 AI 已经到了可以放心用在生产环境的阶段了。

40 元/月,24 小时待命,VLM、长程推理、全栈开发都能搞定。这个性价比,真的很难不心动。

对了,豆包 App 的“专家”模式已经接入 Seed 2.0 Pro 模型了。过去豆包为了平衡速度和成本,用的是参数比较小的模型,容易给人留下产品很好,但模型不够强的印象。现在接入 Seed 2.0 Pro,能更好地展示模型能力,感兴趣的可以去试试。

如果你也在探索 AI 自动化的实践应用,希望这个国产AI方案能给你一些启发。

可以先从一个小任务开始。记得花时间写好 PRD,磨刀不误砍柴工。

图片

一起“三连

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询