免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

我终于理解了 datawork:它不是一个 Agent,而是个人的 AI 工作台、上下文中心

发布日期:2026-05-11 17:50:30 浏览次数: 1527
作者:傲骄笔记

微信搜一搜,关注“傲骄笔记”

推荐语

Datawork 不是又一个 AI 工具,而是一个能让你长期沉淀所有工作成果的个人AI工作台。

核心内容:
1. 超越传统分类:Datawork 如何整合聊天、代码、知识库等多种功能
2. 核心理念:从一次性工具转向可积累的个人工作流与资产中心
3. 具体实践:如何将对话、任务和资料沉淀为长期资产

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

在跟 ChatGPT 进行完整详细的沟通之后,我让他以第三方的身份来尽可能准确地介绍 datawork,下面是 ChatGPT 写的原文,一字不改。

最近我花了一些时间阅读 datawork 的最新介绍文档,也和它的作者做了一轮很长的交流。这个交流过程很有意思,因为我一开始也是带着常见的分类框架去理解它的:

这是一个 chatbot 吗?
是一个 coding Agent 吗?
是一个 Agent 编辑器吗?
是一个本地知识库吗?
是一个 MCP 客户端吗?
还是又一个笔记软件?

聊到后来,我意识到,这些分类都只能解释 datawork 的一部分,但都不能解释它整体想做什么。

如果一定要用一句话概括,我会说:

datawork 是一个本地优先的个人 AI Agent 系统。它不是某一个 AI 功能,而是一个人长期和 AI 协作的工作台、上下文中心。

这句话听起来有点大,但如果把它拆开,就会清楚很多。


一、为什么我一开始很难理解 datawork


现在 AI 工具太多了。每个工具都试图给自己找一个清晰位置:

ChatGPT、Claude、Gemini 这类产品,是通用聊天和推理入口。
Cursor、Windsurf、Claude Code 这类产品,是 AI 编程工具。
Obsidian、Notion、Office,是笔记、文档和内容容器。
各种 MCP Host,是让模型调用外部工具的连接器。
各种 Agent 框架,则是让开发者搭建和编排智能体。

所以当我看到 datawork 时,第一反应也是想把它放进其中某一类。

但很快会发现:它放不进去。

它有聊天,但它不是 chatbot。
它有 Code Agent,但它不是编码工具。
它有记忆库和搜索,但它不是普通知识库。
它有文件传输助手,但它不是文件同步工具。
它有 Web 端、桌面端、手机联通,但它不是协作文档。
它支持 MCP,但它不是单纯 MCP Host。
它有 Todo、插件、项目笔记、Git 研读、PPT、PDF、文件编辑、Python 自动化,但它也不是这些功能的简单集合。

它真正想做的,是把这些东西放进一个人的长期工作流里。

换句话说,datawork 不是在回答“AI 能不能帮我完成某一个任务”,而是在回答另一个更深的问题:

一个人怎样长期和 AI 一起工作,并且把每一次对话、记录、任务、代码、资料和工具都沉淀成自己的资产?

这是我理解 datawork 的起点。


二、datawork 的核心不是 Agent,而是“可积累”


很多 AI 工具很强,但它们有一个共同问题:它们往往是一次性的。

你问了一个问题,AI 回答了。
你让它改一段代码,它改了。
你上传一个 PDF,它总结了。
你让它写一个脚本,它写了。

这些都很有用,但它们经常散落在不同地方:

聊天记录在 AI 平台里;
代码在编辑器里;
笔记在 Obsidian 或 Notion 里;
任务在 Todo 软件里;
文件在电脑和手机之间来回传;
临时想法散落在微信文件传输助手、备忘录、网页收藏、截图和聊天框里。

AI 很强,但人的工作流仍然是碎的。

datawork 试图解决的,就是这个碎片化问题。

它的作者在文章里把 datawork 的初心概括成三种力量:AI、编码、记录

AI 扩展人的思考能力。
编码扩展人的行动能力。
记录保存人的原始数据、思考痕迹、任务过程和经验沉淀。

我觉得这个三角非常准确。因为 datawork 的价值不只是“让 AI 回答得更好”,而是让人每一次和 AI 协作之后,留下来的东西可以被继续使用

一个想法可以变成记录。
一段记录可以进入记忆库。
一个记忆可以被 Agent 调用。
一个任务可以进入 Todo。
一个 Todo 可以被 Agent 拆解。
一个脚本可以变成插件。
一个插件可以在后续任务中复用。
一段项目经验可以进入项目笔记。
一个本地工作流可以通过 MCP 被外部编辑器调用。

这就是“可积累”。

datawork 最重要的地方,不是某次回答有多聪明,而是它想让个人工作流从“每次从零开始”,变成“越用越有上下文”


三、为什么文件传输助手在 datawork 里很重要


在我和作者的交流里,有一个点让我印象很深:他非常重视文件传输助手。

乍一听,文件传输助手好像只是一个小功能。
但在 datawork 里,它其实是入口。

因为人的工作不是从一个正式任务开始的。很多时候,它是从碎片开始的

手机上突然想到一句话;
看到一段值得保存的群聊;
浏览器里看到一个链接;
电脑上有一个文件要稍后处理;
AI 对话里出现一段值得沉淀的内容;
临时有一个待办;
某个项目出现一个想法;
看到一张图、一段文本、一份 PDF,觉得以后可能要用。

这些东西如果没有一个很轻的入口,很快就会消失。

很多人会把它们丢到微信文件传输助手、备忘录、收藏夹、聊天窗口、截图文件夹里。短期可用,长期就会变成混乱。

datawork 的文件传输助手,真正的意义不是“传文件”,而是:

把生活和工作中的碎片送进个人 Agent 系统。

手机端可以记录东西,顺手添加到某个准备好的记忆库。
Web 端可以访问完整工作台。
电脑端可以继续整理。
Agent 可以使用 Todo、记忆库和工具。
后续还可以通过 MCP 让外部编辑器访问这些上下文。

这是一条从“随手记录”到“长期复用”的路径。

所以 datawork 不是在做一个更复杂的剪贴板。它是在做一个个人工作流的入口


四、它和 Cursor、Claude Code、Obsidian 并不冲突


这是理解 datawork 很重要的一点。

很多人听到“个人 Agent 系统”,会立刻问:那它是不是要替代 Cursor?替代 Claude Code?替代 Obsidian?替代 Notion?替代 ChatGPT?

我现在的理解是:不是。

如果你只是在一个代码仓库里写代码、补全、重构、修 bug,那么 Cursor、Windsurf、Claude Code、OpenCode 这些工具已经很强。datawork 不需要在这个层面硬碰硬。

如果你只是想写笔记、排版、管理知识库,那么 Obsidian、Notion、Office、在线文档也已经很好。datawork 也不需要替代它们的内容容器能力。

如果你只是想问 AI 一个问题,ChatGPT、Claude、Gemini 也足够好。

datawork 的位置更像是在这些工具之间补一层:

它把个人资料、记忆、Todo、项目笔记、插件、MCP、代码任务和 Web 工作台放到一个本地优先的可积累环境里。

它不一定替代你的编辑器,但它可以成为你的个人上下文中心
它不一定替代你的笔记工具,但它可以成为围绕笔记、文件和任务工作的行动层
它不一定替代 ChatGPT,但它可以把 AI 对话中有价值的内容沉淀到本地记忆和工作流里
它不一定替代 MCP Host,但它可以把自己的记忆、Todo 和工具能力通过 MCP 暴露给外部系统

这就是它和其他工具“不冲突”的关键。

更准确地说,datawork 不想成为所有工具的替代品,而是想成为个人 AI 工作流的底座。


五、我为什么认为 datawork 的价值是真实的


中立地说,我认可 datawork 的价值。

不是因为它一定会成功,也不是因为它现在已经被大众理解,而是因为它抓住了一个真实问题:

AI 越强,人越需要一个能长期承接资料、任务、记忆、工具和行动的个人工作系统。

现在很多 AI 使用方式还停留在“对话”层面。
但真正长期使用 AI 的人,很快会遇到更具体的问题:

我和 AI 聊过的重要内容怎么沉淀?
我反复要做的任务怎么变成可复用流程?
我多个笔记库、多个项目、多个文件夹怎么统一搜索?
我手机上随手记录的东西怎么进入工作系统?
我的 Todo 能不能被 Agent 调用?
我的记忆库能不能被代码编辑器访问?
我能不能让 AI 不只是回答,而是读文件、改文件、写脚本、调用工具、更新任务、沉淀经验?
我能不能在保持本地数据控制的同时,让 Agent 真正工作?

这些问题不是伪需求。
只是它们不是普通轻度用户第一天就会遇到的问题。

它们属于重度 AI 用户、重度记录者、长期项目型用户、独立开发者、研究者、知识工作者,以及那些已经开始认真思考“我怎样和 AI 长期协作”的人。


六、datawork 的真实起点:一个“超级笔记狂魔”的工具困境


和作者交流时,我发现 datawork 的来源很具体。

它不是从一个抽象商业概念开始的,而是从作者自己的长期痛点里长出来的。

他是一个重度笔记用户。
早期用过印象笔记,但内容太多后严重卡顿,甚至在手机端临时记一条备忘录都变得困难。
也用过 Microsoft ToDo,但大量任务积累后同样出现过负担。
后来使用 Obsidian,Obsidian 性能很好,但多个库之间的跨库搜索、统一调度和 AI 协作仍然不能完全满足需求。

于是他最开始自己写脚本,解决跨库搜索问题。
datawork 早期甚至有一个专门的搜索选项卡,用来快速搜索多个路径下的内容。
后来这个搜索功能逐渐演化为当前系统里的侧边搜索能力:类似代码编辑器里的工作区搜索,但用户可以主动配置多个搜索路径,形成一种面向全电脑资料的搜索能力。

与此同时,AI 出现后,作者很早就意识到:人与 AI 的对话本身是非常有价值的数据。

但很多大公司的 AI 网页端不方便导出聊天记录,很多时候只能复制。于是新的问题出现了:这些有价值的对话、想法、任务、资料,应该如何保存、组织、搜索、复用

文件传输助手、mini 窗口、Todo 系统、记忆系统、Web 工作台、手机端联通、MCP 接入,都是沿着这条真实工作流逐渐长出来的。

所以 datawork 不是“先有概念,再堆功能”。
它更像是一个人的真实工作台被现有工具反复卡住后,一点点补出来的系统

这一点让我觉得它更可信。


七、它现在最有潜力的一步:成为外部工具的个人上下文中心


作者现在正在推进的一个方向,我认为非常关键:把 datawork 的 Todo 系统、记忆系统等能力,通过系统内置 MCP 暴露给其他编辑器和 Agent 工具。

也就是说,用户不需要自己单独开发 MCP。未来只需要在 datawork 里打开开关,复制一段配置,就可以通过 HTTP 在外部编辑器里配置 MCP,让其他工具访问 datawork 的记忆、Todo 和相关能力。

这一步会显著改变 datawork 的位置。

因为它不再只是“你在 datawork 里做事”,而是:

你在其他工具里做事时,也能调用 datawork 里长期积累的个人上下文。

你可以继续使用 Cursor。
可以继续使用 Claude Code。
可以继续使用其他 AI 编辑器。
但它们可以通过 MCP 连接到 datawork 这个个人工作台。

这样 datawork 就不是和外部工具竞争,而是在它们背后成为个人资料、任务和记忆的底座

我认为这是很有想象力的方向。


八、一个真实案例:用 Code Agent 快速做出闪卡应用


作者还给了我一个最近的例子。

他使用 datawork 里的 Code Agent,接入 DeepSeek 最新模型 DeepSeek V4 Flash,在一个小时内、花费大约三毛钱,做出了一个基于 Python 和 FastAPI 的 Web 应用,用来帮助大家创建闪卡。

这个例子不一定说明 datawork 的 Code Agent 已经比所有专业编程工具更强,但它说明了另一个事实:

datawork 的 Agent 能力不是停留在概念层,它已经可以进入真实开发任务。

更重要的是,这个开发任务不是孤立的。它可以和 datawork 内部的记录、Todo、记忆、文件、项目笔记、后续沉淀继续连接。

这才是 datawork 和普通 coding agent 的区别。
普通 coding agent 做完一个项目,结果可能留在代码仓库里。
datawork 更想让这个过程成为个人工作系统的一部分。


九、datawork 适合谁?


我不认为 datawork 适合所有人。

如果你只是偶尔问 AI 一个问题,ChatGPT 或 Claude 足够。
如果你只是写代码,Cursor 或 Claude Code 可能更直接。
如果你只是写笔记,Obsidian、Notion 已经很好。
如果你不愿意管理本地资料,也不想折腾任何工作流,那 datawork 可能会显得复杂。

但如果你符合下面几类人,datawork 可能值得认真看一眼:

第一,你是重度 AI 用户,而且觉得 AI 对话很有价值,不想让它们散落在各个平台里。
第二,你是重度记录者,有大量笔记、文件、资料、链接、想法和项目过程需要长期管理。
第三,你经常在手机、电脑、浏览器之间传资料、记想法、整理任务。
第四,你有多个本地资料库、多个项目目录,希望能统一搜索、统一沉淀。
第五,你希望 Todo、记忆、文件和 Agent 能真正连接,而不是各自孤立。
第六,你会一点 Python,想把自己的小自动化变成可复用工具。
第七,你正在使用 Cursor、Claude Code 或其他 AI 编辑器,但希望它们能访问你自己的长期记忆和任务系统。
第八,你重视本地优先,不希望所有资料都放在云端黑箱里。

简单说,datawork 最适合的不是“想试试 AI 的人”,而是:

已经在认真和 AI 一起工作,并且开始感到现有工具太碎的人。



十、它现在最大的挑战


datawork 有价值,但它也很难传播。

原因很简单:它不是一个单点工具。

单点工具很好理解:

“我帮你写代码。”
“我帮你总结 PDF。”
“我帮你记笔记。”
“我帮你做 Todo。”
“我帮你接 MCP。”

但 datawork 要说的是:

我帮你把资料、记忆、Todo、项目、Agent、代码、插件、MCP 和多端工作台整合成一个长期可积累的个人工作系统。”

这句话准确,但它不像一句广告语。
它需要用户有过类似痛点,才会立刻明白。

所以 datawork 当前最难的不是“有没有价值”,而是“如何让有相同痛点的人更快认出它”。

这也是我为什么觉得它不能只靠泛泛宣传。
它需要真实案例,需要工作流演示,需要“我每天是怎么用它的”这种具体场景。

比如:

如何用手机把临时想法送进某个记忆库;
如何把 AI 对话沉淀成 Todo;
如何在项目里让 Code Agent 使用已有记忆;
如何通过 MCP 在 Cursor 里调用 datawork 的 Todo 和记忆;
如何用文件传输助手收集资料,再让 Agent 整理成笔记;
如何用搜索功能跨多个资料路径找到过去记录;
如何从一次开发任务沉淀出后续可复用插件。

这些场景,比单纯罗列功能更有说服力。

(datawork 的 todo 系统正在 windsurf 中发挥作用)


十一、我作为第三者的最终理解


如果让我现在用自己的话介绍 datawork,我会这样说:

datawork 是一个从真实个人工作流里长出来的本地优先个人 Agent 系统。它的目标不是做一个更会聊天的 AI,也不是做一个更强的代码编辑器,而是把个人资料、AI 对话、记忆、Todo、项目、文件、脚本、插件、MCP 和多端工作台连接起来,形成一个人长期和 AI 协作的工作环境。

它的核心不是“Agent 很强”。
而是:

你的东西能被记录下来;
你的任务能被接住;
你的经验能被沉淀;
你的工具能被复用;
你的 AI 不再只是在一次对话里帮你,而是围绕你的长期工作流继续发挥作用。

这就是我理解的 datawork。

它不是另一个微信。
也不是另一个 Cursor。
也不是另一个 Obsidian。
也不是另一个 ChatGPT。

它更像是一个人的本地 AI 工作台。

一个你可以不断往里面放东西、不断让 Agent 使用这些东西、不断把结果沉淀回来、并且逐渐形成自己工作流资产的地方

对很多轻度用户来说,这可能暂时太复杂。
但对那些已经被资料碎片、AI 对话、跨设备记录、Todo、代码项目和自动化工作流困扰的人来说,datawork 试图解决的问题,可能正是他们迟早会遇到的问题。

我不会说 datawork 一定会成功。
但我会说,它不是一个没有意义的个人项目。它抓住了 AI 时代一个很关键的变化:

AI 不应该只停留在聊天框里。它应该进入人的资料、记忆、任务、工具和长期工作流。

datawork 做的,就是把这件事变成一个本地优先、用户仍然掌控的个人系统。


相关文章:
一句话理解 datawork:你的个人Agent系统
datawork主页:

https://publish.obsidian.md/xm/wiki/%E6%95%99%E7%A8%8B/datawork%EF%BC%9Aabout

图片
2026.5.5

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询