微信扫码
添加专属顾问
我要投稿
国产AI开源力量崛起,Coze开源让普通人也能轻松打造AI Agent,打破技术门槛。 核心内容: 1. 中国开源模型在Hugging Face排行榜占据主导地位 2. Coze开源平台实现低门槛AI Agent开发与部署 3. 实测笔记本电脑即可运行,Apache 2.0协议保障商业自由使用
“程序员特权”正在被打破
👦🏻 作者: 镜山
🥷 编辑: Koji
🧑🎨 排版: NCon
7 月底,Hugging Face 的开源模型排行榜发生了一件不太被主流媒体注意到的事:
前十名中,中国开源模型占据了八个席位。
这是一个重要信号:开源力量开始在 AI 领域形成实质性冲击。
但更重要的转变发生在模型之上。
如果说 AI 模型是发动机,那么 Agent 就是整辆汽车 —— 而现在,连「造车」的权利也开始下放了。
在国产模型霸榜的同时,我们注意到扣子(Coze)在 7 月 26 日完成了一系列开源动作:「扣子开发平台」和「扣子罗盘」都被开源了,并在火山官网上线「隐藏大招」:
一键部署
我们曾在《十字路口播客 4 万用户啦!我认为做得最对的一件事,和一大堆感受》中分享了一段「拟人语音播客」,那套基于扣子制作的工作流程很丝滑。
为什么扣子在这个时间节点开源?这意味着什么?它想抢什么?又会引发哪些新的竞争?
这些问题当然重要,也值得长篇专文去讨论。
但在讨论它的战略意图之前,我们更关心一件事:它的体验是否真的优秀?普通人是否真的能部署并用起来?
——毕竟,所有竞争的基本盘都是用户体验。
所以,在这篇文章中,我们想先做点更“落地”的事。我们第一时间进行了完整部署测试,尝试验证:
用一台笔记本电脑,就能用 Coze 从 0 部署一个本地的 AI Agent 吗?
这一次,扣子 Coze 的系列开源项目一共有 2 个: Coze Studio(扣子开发平台) 和 Coze Loop(扣子罗盘),这俩项目在 GitHub 上加起来收获了近 2 万个 Star,可见受欢迎程度。
扣子在闭源阶段,就已经被无数用户验证过了。而且,这次扣子开源的不是半成品,而是已经搭建好的完整平台。
技术用户以及低代码环境的小白,也能直接上手做 Agent,做完之后还能直接部署使用,不用再费劲去对接各种接口。而且实际部署的门槛很低,我们实际测了下,4核 CPU,内存卡 8G 即可,笔记本电脑就可以部署。
可以说,这次开源最大的亮点就是:「门槛比较低,普通人可以轻松入门」。
其次,我还发现「扣子开发平台」和「扣子罗盘」两个开源项目用的都是 Apache 2.0 协议,一种「非常宽松的开源协议」。
大致意味着所有使用者都可以自由使用、复制、修改、分发,也可以用于商业用途,也无需支付授权费。
我们先来回顾下这两个产品到底能干什么?
扣子开发平台可以让用户像搭积木一样做 AI Agent,能通过拖拽组件的方式,就像人的思维链一样,设计工作流程,不需要写复杂代码。
平台还支持各种插件,可以连接第三方服务,省去了申请和配置的麻烦。很适合完全不懂技术的小白快速上手,也能满足比较专业的开发者的个性化需求。
大家可以去「淘宝、咸鱼」上搜一下,有相当多扣子工作流模板的信息,这也主要是因为它降低了 Agent 应用搭建的技术门槛,做好的工作流可以一键复制,并且登录简单。
即做即用。
光有 AI Agent 肯定还无法转化为实际的生产力,还需要有人管理和维护,扣子罗盘就是专门干这个的。
这是一个 Agent 管理平台,从一开始的指令设计到后期的测试运维,整个流程都能管理,能够让 AI Agent 的开发和部署变得更可控,更有效率一点。
接下来,分享我们的深度评测「教程」(其实我也算是个代码小白)。
来看看,从 0 开始,如何从 GitHub 的一个开源项目到一个能实际用的简单 Agent。
下面,我们来制作一个超完整的「AI 行业专业研究 Agent」
首先,扣子官方提供了两种部署方式:自己手动部署,或者去官网自动氪金部署。
如果想从始至终不看到一行代码就可以直接去火山官网「一键部署」,但其实自己动手部署也比较简单。
不过,考虑到有些同学,有可能对代码心存畏惧。我特意在电脑上把两种部署方式都测试了一遍,确保每个步骤都是可行的。
我们先从最简单的官网部署开始说起。
火山官网部署确实非常简单,基本上只需要进入下面这俩网址:
【1】扣子开发平台:https://www.volcengine.com/activity/dev-coze-studio
【2】扣子罗盘:https://www.volcengine.com/activity/dev-coze-loop
点击「立即部署」即可,比如扣子开发平台的官网部署,系统会自动为我配置所有必要的服务组件。
整个部署过程基本在 1-3 分钟内瞬间部署完成,我看了眼我的部署日志,大概用了 1 分 50 秒左右。
在下面这个页面直接全部授权:
官方价格大概是 1.417 块钱 / 小时,价格方面比较亲民:
部署完成后,直接点进「Coze Studio 访问地址」就能登录到部署后的「开源版扣子开发平台」了:
在这个过程里,你无需填写火山方舟模型 API、火山引擎的 API,完全看不到一行代码。而且,收费也比较便宜。官网虽然便宜方便,但有个小遗憾—— 不支持多模态和图片知识库,但对大多数人来说够用了。
下面教大家自己动手搭建,虽然稍微复杂点,但功能更全面。
扣子开发平台需要用到 MySQL、Redis、Elasticsearch、Milvus 这些服务。Docker 会把它们分别装在不同的「盒子」里运行,然后用虚拟网络把这些「盒子」连起来。
先到这个网址下载 Docker:https://www.docker.com/products/docker-desktop/
选择适合你操作系统的版本。Docker 支持 Windows、macOS 和 Linux,安装过程都很直观,基本上就是「下一步、下一步、完成」的节奏:
安装完成后,验证一下 Docker 是否装好了(以下代码需要打开电脑「终端」,复制输入即可):
docker --versiondocker compose version
如果看到类似 Docker version 27.x.x 和 Docker Compose version v2.x.x 这样的信息,就说明装好了,可以正常工作了。
接下来我们需要获取扣子开发平台的完整源代码,这里直接去 GitHub 扣子开发平台项目里复制就行。
网址在这:https://github.com/coze-dev/coze-studio
在终端输入:
# 克隆代码git clone https://github.com/coze-dev/coze-studio.git
下载过程可能需要几分钟,具体时间取决于你的网络速度。
这一步是整个搭建过程的核心,我们需要给扣子开发平台选择一个大模型。
因为我之前注册过火山方舟的 API ,所以方便考虑,这里还是以火山引擎的豆包 1.6 举例,最主要的是它是多模态,也能做视觉理解。
直接在终端复制:
cd coze-studio# 复制 doubao-seed-1.6 模型配置模板cp backend/conf/model/template/model_template_ark_doubao-seed-1.6.yaml backend/conf/model/ark_doubao-seed-1.6.yaml
这时候你电脑会自动打开一个代码编辑页面,需要手动改三个地方:
【1】id(第1行)- 随便改个名字,比如改成「66666」
【2】meta.conn_config.api_key(第109行)- 填入火山引擎的 API Key
【3】meta.conn_config.model(第111行)- 填入 API ID
id 可以随便改,比如我就直接设置成「66666」,后面两个直接去火山引擎注册一个 API ,复制粘贴就行:
复制下面几行代码,到终端里运行,这一步的主要目的就是去 Docker 拉取镜像:
cd dockercp .env.example .envdocker compose up -d
第一次启动会比较慢,因为要下载各种镜像文件。如果失败了,基本上原因就一个:网络问题。
解决方式就一个宗旨:多试几次。
如果拉取成功了,就是下面这个结果:
上一步完成后,直接去浏览器输入下面这行网址,就可以找到扣子开发平台开源版的服务网页了:
http://localhost:8888/
进到了这个页面,扣子开源版的部署就宣布大功告成了:
扣子开源版上的功能大致与网页版差不多,该有的都有。现在你拥有了功能完整的扣子开发平台了,可以自己动手 DIY Agent 和工作流了。
接下来让我们做个「AI 行业专业研究 Agent」。
与网络版流程一样,需要先给 Agent 设置一个基本的人设与回复逻辑,告诉它「它的职责与作用」提示词如果觉得自己写的太差,可以直接用火山引擎的「PromptPilot」细化,出来的效果大致如下:
这个 AI 行业研究 Agent 最核心的功能就是一个「AI_Industry_Analyst」工作流,我在设计它时的逻辑大致是下面这样。
用户输入内容之后,先识别用户想要研究的行业:
然后就是一连串的「分析手法」,根据每种分析路径整合所有的研究信息,最后再来一个「大整合」节点,将所有信息补全到一个文本框里:
每一种分析手法生成的结果都可以在右面做一个「延伸」节点,功能大概是工作流每一步生成的结果都可以实时展示给用户。
然后这一长串分析结果都可以进行「信息大整合」,再插入到飞书文档里:
扣子开源版也支持「预测试」功能,我录制了一个 GIF,看下每一步的回答:
整体回答:
这么看长文实在是太费劲了,很难直观的感受这个简单工作流是不是「成功」了。所以我做了个可视化,你可以看到整个工作流的过程还是非常完整的,所有的要素该有的都有:
最后,也是我最关注的成本问题。
由于我们是在一开始就在火山里接入的豆包 1.6 多模态模型(也可以接入任何其他模型,只需要在最初改下代码即可),API 的消耗我真的很关心。
一开始我往里面充了 100 块(还有之前送我的 10 块),然后我回去翻了翻火山方舟的后台,查了下账户,发现我高频率地「试玩」了一下午,API 的用量其实也就花了 3 块多点。
由于实在是有点便宜,我反过来查了下这回主要用的豆包 1.6 多模态模型,一个词可以形容:「大而全」,可以做视觉理解,还能深度思考。
而且,便宜(这个是重点),像这样便宜的模型,火山方舟还有一堆。
推理的价格是每 100 万输入 token,0.4 元,更直观点 $0.056 / 百万 token,在此感慨下。
说真的,我觉得这一整套流畅下来,最让我觉得方便的是火山官网上基本只需要一个 API,一次注册,就都可以用。
过去,开发一个 AI Agent 通常需要多个步骤:申请模型 API、搭建后端、配置前端、调试 Prompt、上线部署。这套下来,不懂技术的人基本就放弃了。
而现在,用户的身份正在从「单纯的用户」到开发者。
我们曾沿用过一个概念 —— 「超级个体」,它的意思是: 被AI 增强几倍能力的普通人。
由于 AI 发展实在是太过迅猛,专注于做底层基础模型技术和 Agent 的厂商,在 Agent 应用场景上的「嗅觉」可能并不一定比有想法的「超级个体」们还要灵敏。
因为,个体往往考虑的是「这个能解决我什么问题」,更容易发现真正有用的场景。
但是,有想法的个人,距离制作出有用的 Agent ,其实还隔着一层薄薄的「技术玻璃幕墙」。而扣子和火山引擎这种「开源 + 系统」的组合,就是在拆掉这堵墙。
让越过「技术藩篱」的普通人们,自己去找到实际的应用场景,效率更高,效果更好。
当制作 Agent 变得像搭建网站一样简单时,大量进来「玩一下」的用户会催生出大量长尾应用。就像当年 WordPress 催生了无数小网站一样,扣子则可能会催生无数「小而美」的 AI Agent。
这很令人期待,不是吗?
现在看来,用户真正需要的其实是两样东西:
【1】「大而全」的 AI 支持体系(像是涵盖各种模态的模型矩阵、整套的云服务平台等等)
【2】「小而美」的制作工具(像是有简单易用的可视化界面的扣子开发平台等等)
这样才能为每个应用场景提供支持,让用户自己去发现可能性后,再将其实现。
AI Agent 的开发,从此不仅属于技术高手。
我们希望这篇实测部署的文章能成为更多人入场的参考。如果你也曾脑中闪现过一个 Agent 场景、一个自动化点子——现在就是动手的时机。
用你自己的方式,去「造车子」吧。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-06
Agent应用爆发,谁成为向上托举的力量?
2025-08-06
在笔记本上,部署 gpt-oss-120b 模型
2025-08-06
WeKnora:基于大模型的新一代文档理解与检索框架
2025-08-06
OpenAI 为什么要开源大模型 gpt-oss?
2025-08-06
Coze Studio 快速上手指南
2025-08-06
本地部署了一个 gpt-oss:20b,实测同级别感觉还不如deepseek-R1:14b
2025-08-06
企业级 AI 编程神器上线!MonkeyCode:私有部署、安全编程,研发团队加速利器
2025-08-06
OpenAI开源模型一手简单实测
2025-07-23
2025-06-17
2025-06-17
2025-07-23
2025-07-14
2025-07-27
2025-07-12
2025-07-29
2025-07-29
2025-05-29