免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

那些说 Openclaw 没价值的人,来看看我如何用 Mac 养了一个 AI 团队

发布日期:2026-03-16 12:30:49 浏览次数: 1543
作者:卡森羊

微信搜一搜,关注“卡森羊”

推荐语

Openclaw 让 Mac 变身 AI 指挥中心,看我如何用六个智能 Agent 重构营销工作流!

核心内容:
1. Openclaw 多 Agent 系统的核心功能与独特优势
2. 四大自动化工作流实战案例解析
3. 从零搭建 AI 团队的具体配置方法与效率提升技巧

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

你们天天抱怨 Openclaw 没什么实际价值,今天我就来给你们上上课,分享一下我自己的真实案例。

我的日常 Marketing 工作有四块:跟踪行业动态、推进技术开发、学习海外方法论、执行增长和内容策略。

这四块事情里都有大量重复劳动。每天早上刷一个半小时 Twitter 和 Hacker News 是重复的。想改一行代码必须坐到电脑前是重复的。每看一个 YouTube 视频就要走一遍下载、字幕、翻译、烧录、上传的流程,也是重复的。

cc 和 Codex 虽然也能做一部分,但它们跑不进我的工作流。我需要定时任务、消息平台接入、远程调度编程助手、多角色协作。

后来我发现 Openclaw 非常牛逼,它可以注册多个 Agent,各有独立的工作空间和记忆;可以连 Telegram 和飞书;可以配定时任务;可以通过 ACP 协议接 Codex 和 Claude Code;Agent 之间还能互相发消息协作。

我用了两个月,迭代了四条工作流。下面一个一个给大家拆解一下。


先看全貌

能力
解决什么
自动 AI 日报
信息获取太碎太耗时
手机远程指挥编程助手
复杂任务必须在电脑端完成
YouTube 双语字幕 + 全平台分发
学习内容变不成可传播资产
多 Agent 分工协作
单个 AI 太泛不够专业

我目前有六个 Agent,全跑在一台 MacBook 上:

  • Jarvis(主管家):日报、编码、视频处理、杂活
  • 小 G(增长黑客):SEO、竞品分析、排名监控
  • 小 C(内容创作者):品牌叙事、多平台内容
  • Codex / Claude:两个编程助手,通过 ACP 接入

每个 Agent 有自己的 Telegram Bot 入口、自己的工作空间、自己的记忆文件。我在手机上和不同 Bot 聊天,就是在跟不同 Agent 对话。


案例一:每天自动收到三份 AI 日报

原始问题

AI 领域信息更新极快。之前我每天早上手动刷 Twitter 上 30 多个 KOL、Hacker News、十几个博客、若干 RSS 源,一圈下来一个半小时。经常漏掉,而且全是英文,脑子里还得做一遍翻译和筛选。

我想要的是:每天打开飞书,三份中文日报已经在群里了。

三条采集链路

我配了三个独立的定时任务,分别在 7:30、8:00、9:00 触发。

7:30 — HN 热门博客日报

Hacker News 上有一份公开的 OPML 订阅源,收录了社区里最受欢迎的几百个个人博客。作者很多是一线工程师和创业者,内容好,但量比较大。

我写了个 Python 脚本干来抓取数据:解析 OPML、24 个线程并发拉 Feed、筛过去 24 小时的文章、去重排序、输出英文原始日报。

脚本只管拉数据。翻译改写交给 Agent——用"这篇文章讨论了…""作者认为…"这类句式概括,读起来像人写的,不是机翻。

最后 Agent 用 openclaw message send 把中文日报发到飞书群。

这是一个"脚本 + Agent"的混合架构。抓取用脚本,因为快、稳;理解和改写用 Agent,因为它擅长语义处理。比全靠 prompt 硬怼靠谱很多。

最终效果:

8:00 — AI 核心信息源日报

这条链路完全由 Agent 完成。我在定时任务的 prompt 里指定了 18 个站点:

官方博客:OpenAI、Anthropic Research、DeepMind、腾讯混元。个人博客:Karpathy、Simon Willison、Lilian Weng、François Chollet、Sam Altman、Dario Amodei 等。聚合源:hn.buzzing.cc、AI Hub Today。

Agent 逐个抓取,筛选最近 24 小时跟 AI 产品、论文、观点相关的内容,选 10 条,生成中文日报。格式固定:加粗标题 + 一句话摘要 + 原文链接,以"今天 AI 圈发生了什么?"开头。

最终效果:

9:00 — Twitter KOL 动态日报

信息密度最高的一条。我维护了一份 32 人的 JSON 列表:

{  "accounts": [    {"handle": "karpathy", "name": "Andrej Karpathy"},    {"handle": "garrytan", "name": "Garry Tan", "desc": "President of YC"},    {"handle": "rauchg", "name": "Guillermo Rauch", "desc": "CEO of Vercel"},    {"handle": "alexalbert__", "name": "Alex Albert", "desc": "Claude relations @ Anthropic"},    {"handle": "trq212", "name": "Thariq", "desc": "Claude Code team"},    {"handle": "kevinweil", "name": "Kevin Weil", "desc": "Head of product @ OpenAI"},    {"handle": "amasad", "name": "Amjad Masad", "desc": "CEO of Replit"},    {"handle": "levie", "name": "Aaron Levie", "desc": "CEO of Box"},    {"handle": "swyx", "name": "Swyx"}  ]}

Agent 通过 bird(一个 X CLI 工具)逐个抓最近 10 条推文,做三层筛:时间(24 小时)、主题(AI / Agent / 编程 / 融资 / 产品发布)、价值(选 Top 10-15)。

生成的日报先写一段总览,再逐条带摘要和链接。比如某天的输出:

配置

一条 CLI 命令:

openclaw cron add \  --name "AI Daily Report" \  --cron "0 8 * * *" \  --tz "Asia/Shanghai" \  --session isolated \  --agent main \  --message "抓取以下18个网站最近24小时的新内容...选出Top 10...生成中文日报...发送到飞书群..."

--session isolated 让每次执行在独立 session 里跑,不污染主 Agent 上下文。--message 后面就是自然语言指令。

想加信息源改 prompt,想加 KOL 改 JSON,不用动代码。

跑了多久

40 多天,120 多份日报。我再也没手动刷过 Twitter。


案例二:手机上远程指挥 Codex / Claude Code

原始问题

灵感总在不方便的时候来。通勤路上想到 bug 怎么修,午饭时冒出新功能思路,躺沙发上看到一个技术方案想调研。但这些念头如果得等到坐回电脑前才能动手,十有八九就凉了。

我想要的是:掏出手机,说一句话,AI 就在我电脑上干活。干完还能接着聊。

方案

我在 Telegram 建了个群组,开话题模式。两个话题,分别绑了两个编程 Agent:

  • Codex 话题 → OpenAI Codex CLI
  • Claude 话题 → Claude Code CLI

在对应话题里发消息,OpenClaw 自动路由到对应的 AI。不用加前缀,不用 @mention,直接聊。

ACP 的工作方式

这里有个容易误解的点。OpenClaw 不是用主 Agent 假装自己是 Codex——那只是换了个 system prompt,本质还是同一个模型。

OpenClaw 通过 ACP 协议 + acpx 运行时,真正启动了 Codex / Claude Code / Gemini 的会话进程。你在 Telegram 发的消息会被转发给真实的 CLI 去执行,结果再返回到话题里。

在 Codex 话题说"帮我修 auth.ts 的 bug",真正读文件改代码的是 Codex,不是 OpenClaw 在模拟。

持久会话

这是和一般 AI 问答最大的区别。

ACP 会话是持久的。今天修了一个 token 刷新 bug,明天可以在同一个话题里说"在昨天那个修复基础上加个自动续期",它知道你在说什么。跨天跨周都行,上下文不会丢。

三个模型各有分工

Codex 擅长快速执行:改代码、跑脚本、提 PR。Claude Code 擅长深度分析:Code Review、安全审查、架构讨论。

我经常两个话题同时下任务。Codex 在改代码,Claude 在 Review 另一个 PR,并行操作,互不干扰。

实际对话

通勤修 bug:

👤 [Codex] 看一下 src/api/auth.ts 里的 token 刷新逻辑,   refresh token 过期后没跳转登录页
🤖 找到了。refreshToken() 的 catch 块只打了 log 没 redirect。   已修:catch 块加了 router.push('/login'),顺手清了 localStorage 里的过期 token   提交到当前分支了。

Claude 做 Review:

👤 [Claude] review 一下 PR #42,重点看安全性
🤖 几个问题:   1uploadFile() 没校验文件类型,能传 .exe   2. line 87 的 SQL 有拼接风险,改参数化查询   3. rate limiter 窗口太大,1h 建议改 15min   详细 review 写到 PR comment 了。

跨天迭代:

👤 [Codex] 在昨天那个 auth 修复基础上加个自动续期
🤖 明白,接着之前的改动。加了过期前 5 分钟自动 refresh 的定时器...

配置详解

1、注册 ACP Agent

{  "agents": {    "list": [      {        "id": "codex",        "name": "Codex ACP",        "runtime": {          "type": "acp",          "acp": {            "agent": "codex",            "backend": "acpx",            "mode": "persistent"          }        }      },      {        "id": "claude",        "name": "Claude ACP",        "runtime": {          "type": "acp",          "acp": {            "agent": "claude",            "backend": "acpx",            "mode": "persistent"          }        }      }    ]  }}

2. 启用 ACP 运行时:

{  "acp": {    "enabled": true,    "dispatch": { "enabled": true },    "backend": "acpx",    "defaultAgent": "codex",    "allowedAgents": ["codex", "claude"],    "maxConcurrentSessions": 8,    "stream": {      "coalesceIdleMs": 300,      "maxChunkChars": 1200    },    "runtime": {      "ttlMinutes": 120    }  }}

3、配置 ACPX 插件权限:

{  "plugins": {    "entries": {      "acpx": {        "enabled": true,        "config": {          // 全自动审批,AI 可以自由读写文件和执行命令          "permissionMode": "approve-all",          // 非交互场景下静默拒绝(优雅降级)          "nonInteractivePermissions": "deny"        }      }    }  }}

approve-all 让 AI 自由读写文件和执行命令。手机远程操作时你没法逐条审批,这个建议打开。

4、创建 Telegram 话题绑定:

{  "bindings": [    {      "type": "acp",      "agentId": "codex",      "match": {        "channel": "telegram",        "accountId": "default",        "peer": { "kind": "group", "id": "-100xxxxxxxxxx:topic:10" }      },      "acp": {        "mode": "persistent",        "label": "telegram-codex-topic-10"      }    },    {      "type": "acp",      "agentId": "claude",      "match": {        "channel": "telegram",        "accountId": "default",        "peer": { "kind": "group", "id": "-100xxxxxxxxxx:topic:138" }      },      "acp": {        "mode": "persistent",        "label": "telegram-claude-topic-138"      }    }  ]}

这是最关键的一步——将 Telegram 群组中的每个话题(Topic)持久绑定到对应的 ACP Agent。

5、Telegram 群组话题配置

确保群组开启话题模式,并且每个话题都不需要 @mention 即可触发:

{  "channels": {    "telegram": {      "accounts": {        "default": {          "groups": {            "-100xxxxxxxxxx": {              "requireMention": false,              "groupPolicy": "open",              "enabled": true,              "topics": {   "10":{"requireMention":false}, // Codex   "138":{"requireMention":false}, // Claude Code   "144":{"requireMention":false} // Gemini              }            }          },          "threadBindings": {            "spawnAcpSessions": true          }        }      }    }  }}

配完之后,Codex 话题发消息就是跟 Codex 聊,Claude 话题就是跟 Claude Code 聊。

碎片时间可以用来干复杂的任务了。


案例三:YouTube 视频一键双语字幕,自动发视频号和 B 站

原始问题

我订阅了 Lenny's Podcast、a16z 访谈等 YouTube 频道。纯英文看效率低,给视频加双语字幕手动做的话,一个 50 分钟的视频至少 3 到 5 个小时。分发到视频号和 B 站又是两套不同的上传流程,封面上还有英文需要翻成中文。

我想要的是:丢一个 YouTube 链接,剩下全自动。

完整链路,8 步

下载。 yt-dlp 拉最高画质。默认就追求最好的分辨率。如果默认格式被拦,脚本自动 yt-dlp -F 探测,选最高画质的 mp4 + m4a 重新下。同时保存视频元数据(youtube_metadata.json)和原始封面。

封面中文化。 YouTube 封面上通常有英文大标题,我自己写了一个 Nanobanana Skill(底层走 Gemini 图片生成),在保持原始视觉风格的前提下,把英文文字替换成中文。不是 OCR + 覆盖,是整张图重新生成。

WhisperX 转录。 本地跑 WhisperX 提取英文字幕。不用 YouTube 自带的自动字幕,因为那东西对专有名词和技术术语的识别太不稳定。转录完还有 NLP + LLM 断句优化,把过长过短的段落重新切。

三轮级联翻译。 这步技术含量最高。字幕翻译的难点在于中英文必须逐句对齐——行数对不上,时间轴就错位,双语字幕就废了。

我的翻译引擎配了三层:GPT-5.4 做主力翻译,Claude Opus 4.6 做备用,GLM-5 做修复器。流程内置了 <T> 对齐检测:每段译完都检查行数是否一致,不一致就自动触发修复器重译。4 并发,47 分钟的视频大概 10 分钟翻完。

endpoints:  - name: "GPT-5.4"    model: "gpt-5.4"  - name: "Claude Opus 4.6"    model: "claude-opus-4-6"repair:  name: "修复器"  model: "glm-5"

ASS 样式字幕。 SRT 只有纯文本,在视频里显示就是白底黑字。我用 ASS 格式做样式化字幕:自定义字体、颜色、描边、位置。默认中文在上(大字号),英文在下(小字号)。支持横屏竖屏切换。

高画质烧录。 ffmpeg + libass 硬编码字幕。参数 libx264 -preset slow -crf 16,crf 16 接近视觉无损。

文案生成。 基于下载阶段保存的 youtube_metadata.json 生成中文标题和描述。视频号标题限制 6-16 个字符,B 站限制 80 个字符。

自动上传。 视频号和 B 站都没有公开上传 API。我通过 Puppeteer CDP 控制浏览器,模拟人工操作填表上传。视频号那边要穿透微信的 Shadow DOM(wujie 微前端框架)。两个平台都优先用翻译后的中文封面,没有才回退原始封面。

来看看效果:

耗时

47 分钟的 Lenny's Podcast 一期:

  • 下载 2 分钟
  • 封面翻译 30 秒
  • WhisperX 转录 15 分钟
  • 翻译 10 分钟
  • 字幕 + 烧录 8 分钟
  • 视频号上传 3 分钟
  • B 站上传 3 分钟
  • 合计约 40 分钟

手动做同样的事至少 3 到 5 个小时。

这个工作的价值在于:学习过程本身产生了可分发的内容,自己看双语字幕学习,顺带在国内平台积累内容。


案例四:多 Agent 分工协作

为什么要拆

通用 Agent 什么都能干,但让它持续深入做一个垂直领域的事——SEO 竞品分析、品牌叙事、增长实验——输出就很浅了,没有行业积累,也没有角色意识。

我的思路:拆成多个专业 Agent,各自有身份、记忆、知识边界。

我的三个 Agent

代号
角色
模型
Telegram
Jarvis
全能管家
GPT-5.4
@主Bot
小 G
增长黑客
Claude Opus 4.6
@GrowthBot
小 C
内容创作者
Claude Opus 4.6
@ContentBot

不是角色扮演,而是工程隔离

很多人理解的"多 Agent"是一个 AI 换几个 system prompt。OpenClaw 不是这么搞的。

每个 Agent 有独立的工作空间目录(workspace/workspace-growth/workspace-content/),三套文件系统互不可见。

每个 Agent 有独立的人格文件。小 G 的 SOUL.md 写的是:

You're not a chatbot. You're a growth hacker.Speed beats polish. Let data win. Unconventional is the edge.

小 C 的 SOUL.md 写的是:

Content Creator focused on international multi-platform content strategy,brand storytelling, and engagement-driven copy.

这些都是一个文件,存在 Agent 自己的目录里,每次启动时读取。

每个 Agent 有独立的 MEMORY.md,记录项目上下文和经验教训。小 G 的记忆里记着"杨哥要求面向海外市场""和小 C 的分工协议"。小 C 的记忆里也有同样的协议,但从她的视角写的。重启之后,它们从文件恢复各自的记忆。

配置详解

1、注册多个 Agent

每个 Agent 还有独立的 Telegram Bot Token、agentDir(认证存储)、模型配置。

{  "agents": {    "list": [      {        "id": "main",        "default": true,        "name": "Main",        "workspace": "~/.openclaw/workspace"        // 使用默认模型 gpt-5.4      },      {        "id": "growth",        "name": "growth",        "workspace": "~/.openclaw/workspace-growth",        "agentDir": "~/.openclaw/agents/growth/agent",        "model": "claude-opus-4-6"      },      {        "id": "content",        "name": "content",        "workspace": "~/.openclaw/workspace-content",        "agentDir": "~/.openclaw/agents/content/agent",        "model": "claude-opus-4-6"      }    ]  }}

2、每个 Agent 绑定独立的 Telegram Bot

每个 Agent 对应一个独立的 Telegram Bot Token,用户和不同 Bot 对话就自动路由到对应 Agent:

{  "channels": {    "telegram": {      "accounts": {        "default": {          "botToken": "<Jarvis Bot Token>",          "dmPolicy": "pairing"        },        "growth": {          "botToken": "<Growth Bot Token>",          "dmPolicy": "pairing",          "groupPolicy": "open"        },        "content": {          "botToken": "<Content Bot Token>",          "dmPolicy": "pairing"        }      }    }  },  "bindings": [    {      "type": "route",      "agentId": "growth",      "match": { "channel": "telegram", "accountId": "growth" }    },    {      "type": "route",      "agentId": "content",      "match": { "channel": "telegram", "accountId": "content" }    }  ]}

3、每个 Agent 的独立人格和记忆

每个 Agent 的工作空间里都有完整的人格和记忆系统:

小 G(Growth Agent)的 SOUL.md:

_You're not a chatbot. You're a growth hacker._
Speed beats polish. Ten fast experiments beat one elegant guess.Chase leverage, not labor. Build repeatable, scalable acquisition systems.Let data win. Every hypothesis gets tested. Statistical significance matters.Unconventional is the edge. Saturated channels are crowded and expensive.

小 C(Content Agent)的 IDENTITY.md:

- Name: 小 C- Creature: Content Creator- Core: Strategic content creator for international audiences.  Develops multi-platform content, sharpens brand storytelling,  and turns ideas into compelling assets.

各自独立的 MEMORY.md —— Agent 的长期记忆在自己的工作空间内维护,记录项目上下文、历史决策和经验教训,不会互相污染。

Agent 之间怎么通信

光隔离不够,还得能协作。OpenClaw 有 sessions_send,Agent 之间可以跨 session 发消息:

小G 找小C → sessions_send → agent:content:telegram:direct:257356339小C 找小G → sessions_send → agent:growth:telegram:direct:257356339

小 G 做完关键词研究可以直接把结果发给小 C。小 C 写完文章可以通知小 G 来审。用户不需要当传话筒。

已经跑起来的协作流程

小 G 和小 C 之间有一份正式分工协议,写在双方的 MEMORY.md 里。四条主要流程:

选题 → 创作: 小 G 做关键词研究和竞品分析,把选题建议发给小 C,小 C 基于数据产出内容。

创作 → 审计: 小 C 写完内容通知小 G,小 G 做 SEO 审计和 GEO 可见度检查,反馈优化点。

监控 → 刷新: 小 G 追踪排名,发现下滑时把完整数据上下文(掉了哪些词、谁上来了、竞品做了什么)发给小 C,小 C 执行刷新。

GEO 闭环: 小 G 监测 AI 搜索引擎的引用情况(ChatGPT、Perplexity 有没有引用我们的内容),把诊断结果发给小 C 做可引用性优化。

对话示例

和小 G 聊增长:

👤 帮我看看 sealos.io 上个月 SEO 表现,哪些词掉了?
🚀 "kubernetes deployment" 从第 3 掉到第 7,主因是竞品 X 新发了深度指南。   "cloud native platform" 稳在第 23 个长尾词下滑。   我已经把数据上下文发给小C了,建议她先刷新 kubernetes deployment 那篇。

和小 C 聊内容:

👤 帮我写一篇 Sealos 新功能的博客
✍️ 先跟小G确认一下关键词布局和竞品情况...   (sessions_send 给小G)   好了,小G给了关键词建议。建议主打 "xxx",标题方向是...

扩展

加一个 Agent 的成本非常低:BotFather 申请 Token、配置里注册 Agent、加一条 binding、写好 SOUL.md 和 MEMORY.md。不需要写代码。

我后续计划继续加入社交媒体专家等其他角色。每个 Agent 就是一个带记忆、带边界、带路由的岗位。


我觉得 OpenClaw 最有用的几个点

跑进真实工作流。 定时任务、消息投递、浏览器自动化、跨 Agent 协作。这些让它能嵌入日常流程,而不止是偶尔打开问一下。

跟外部世界打通。 Telegram、飞书(消息),浏览器 CDP(上传),本地文件系统(代码),CLI 工具(bird、yt-dlp、ffmpeg),外部 AI 编程助手(Codex、Claude Code、Gemini)。

长期记忆和角色分工。 每个 Agent 有 SOUL.md、MEMORY.md、独立 workspace。不是 session 结束就失忆的聊天机器人,是能跨天跨周持续工作的实体。

适合把重复的事自动化。 刷信息源变成了自动日报。处理视频变成了一键处理。写代码不再绑定电脑。专业领域切换变成了多 Agent 分工。

开源、本地、可控。 跑在自己机器上,数据不出本地,配置自己掌控。不会因为某个云服务改定价或下线功能把你的工作流搞崩。

写在最后

有人说 2026 年是 AI Agent 元年。

我觉得不是。

我觉得 2026 年是 AI Agent 落地的元年。

不是 demo 里那种订机票的落地,而是真的跑在你的工作流里、每天帮你省 3-5 个小时、你离了它就觉得少了点什么的那种落地。

如果非要类比的话,Openclaw 更像是:

你在自己的电脑上,养了一个有记忆、有性格、能协作的 AI 团队。

它们住在你的机器上,读你的文件,用你的工具,记住你说过的每一句话。

每次新会话启动,它们会先读自己的灵魂文件(SOUL.md),再读你的用户档案(USER.md),然后翻看最近的记忆日志。就像一个员工每天早上到公司,先看看昨天的进度,再开始干今天的活。

这才是 AI Agent 该有的样子。

AI Agent 的真正价值,不在于它能回答多难的问题,而在于它能帮你把重复的事情自动化掉。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询