支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


聊聊Coze开源的意义

发布日期:2025-08-09 20:25:07 浏览次数: 1533
作者:周同学AI研习社

微信搜一搜,关注“周同学AI研习社”

推荐语

Coze开源开启企业级AI应用新纪元,零代码开发+本地部署让智能体开发更自由高效。

核心内容:
1. Coze开源框架的核心优势与战略意义
2. 两大开源组件(开发平台与监控系统)的技术特性
3. 与Dify等竞品的差异化对比及本地部署方案

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

2025年7月26日,国内当下最热门的工作流/Agent框架扣子(Coze),宣布开源了。


Coze由于容易上手适合零代码基础等特点,是许多用户使用的第一个工作流/Agent工具。


跟着新手教程,只需三五分钟就可以搭建自己的智能体,而且Coze的生态环境也十分丰富。作为字节公司的产品,跟飞书生态集成的十分友好,因此给Coze带来了非常庞大的用户群体。



过去由于Coze的闭源策略,大多数情况通常被用于制作个人智能体。但现在情况不同了,开源后意味着可以直接部署到企业生产环境,这是非常有战略价值意义的一个里程碑。


这里为了防止部分同学不清楚开源的概念,简单做一下概念梳理。

开源:所有人都可以看到项目完整底层代码,开发者通常会将代码上传到github。其他人下载后,可以通过开源代码了解项目架构、部署到个人服务器、以及根据个人需求做二次开发等等。

代表项目:Linux、MySQL、DeepSeek、Qwen


闭源:除开发者外,其他人看不到代码,更有利于保护知识产权和商业机密。

代表项目:Windows、IOS、ChatGPT


01 Coze开源框架介绍


Coze这次一次性发布了两款开源框架,可以简单理解为,一个是用于流程开发的,一个是用于监控的,分别是:

扣子开发平台 (Coze Studio)

扣子罗盘 (Coze Loop)


Coze开发平台


Coze罗盘


GitHub 项目地址:

https://github.com/coze-dev/coze-studio

https://github.com/coze-dev/coze-loop


截止到发稿时间(2025.8.3),Coze在github上的Star星标数量已经有14k了。



Coze在开源社区和发布会上的一些内容,这里我也是把重点信息做一下提取:

1、Coze遵循Apache-2.0协议,意味着可以自由使用、修改和分发Coze的代码,包括商业化使用

2、Coze本地部署最低要求为2核CPU,4G内存,基本可以说是随便跑了

3、当前已集成插件、知识库、数据库等能力

4、Coze智能体可发布为API服务

5、后端采用Golang开发,前端使用React + TypeScript


02 Coze、dify对比


Coze宣布开源后,受影响最大的当属dify。dify是我目前工作中深度使用的一款框架,也是目前众多公司的框架选择。


本段对比内容由秘塔(https://metaso.cn/深度研究生成


其他还有例如LangChainLlamaIndex等,这类属于更加细分的高代码Agent框架。个人认为并不属于Coze的直接竞品,可能会适当带来一些冲击,但整体影响不会很大。


高代码意味着更高的自由度,并且公司内部已经有足够的开发团队去承接。


03 Coze本地部署


通过 git 命令拉取代码

git clone https://github.com/coze-dev/coze-studio.git


打开 \coze-studio\backend\conf\model\template,可以看到Coze目前已经支持的大模型(LLM),主流大模型基本上都已经支持。

国内目前支持:豆包、DeepSeek、Qwen

国外目前支持:OpenAI、Claude、Gemini


当然,也可以配置调用Ollama本地部署的大模型



这里我使用 DeepSeek-V3 官方的 API 秘钥,所以我需要将 model_template_deepseek.yaml 复制一份到 \coze-studio\backend\conf\model 路径下,并将模板文件前面的名称 model_template_ 删掉,修改后的文件名称为 deepseek.yaml



修改 deepseek.yaml 里的api_keymodel,这里如果没有api_key,可以参考DeepSeek官网文档注册一个(https://api-docs.deepseek.com/zh-cn/



通过 docker 命令构建、启动项目。

首次启动由于要拉取镜像,下载时间稍微有点久,我这边下载了10几分钟。

# 启动服务 

cd docker 

cp .env.example .env 

docker compose --profile '*' up -d


看到最后一行的 Container coze-server Started,表示启动成功了。



浏览器访问http://localhost:8888/ 即可打开CozeStudio



随便输入一个邮箱、密码,点击注册(假的邮箱也行),就登录到CozeStudio控制台首页了。


剩下的操作基本跟Coze在线版类似了,可以按照自己的业务场景,创建智能体,配置插件。



这里我也是随便创建一个智能体。


可以看到已经成功集成了我前面配置的 DeepSeek-V3 大模型。


目前插件集成的还比较少,主要有:飞书、高德地图、搜狐新闻、什么值得买、天眼查等等


Coze开发团队也提倡各位开发者,可以共同参与到插件的维护中,大家合力维护良好的开发生态。



目前内置了两个智能体模板,这里我把第一个英语聊天智能体复制过来。



改个名,很简单几步就有了自己的智能体了,然后就可以任意发挥想象DIY啦。



值得一提的是,CozeStudio集成的知识库能力还不错,常用功能例如分段策略、分段最大长度、查询改写、结果重排、最大召回数量等等功能都已经支持。



最后,也希望Coze能提供“线上现有智能体,迁移到开源框架”的解决方案,这个对很多人还是挺刚需的。不过考虑到版本差异、插件等的集成冲突,这个可能一时半会难以实现。


写在最后


现阶段,国内不管是大语言模型(LLM)、还是AI Agent,都在疯狂开源。而国外则选择疯狂闭源,为什么国内外会采取截然不同的策略呢?


对普通用户来说,其实并不关心是否开源,普通用户更关心的是这个产品好不好用、是否免费。


但对开发者来说,是否开源就天差地别了。


首先最大的是问题是闭源产品如果直接在企业级项目中使用,是风险非常高的一件事情,这涉及到公司数据安全泄露隐患。服务器不在自己手里,谁也不知道数据被拿去做了什么。


其次就是社群开源,更有利于创建一个积极的开发生态,会有更多开发者参与到开源框架的迭代中。


这里借用一句之前在其他评论区看到的不错的回答,大致意思是:

国产大语言模型(LLM),相较于美国,仍然存在一定差距。现阶段地位类似于垄断者和追赶者,垄断者想要维持壁垒,获取高额利润。而追赶者目前最关注的,是打破垄断地位,而不是获取利润。


事实上,目前很多国产AI产品,都是在烧钱获客。


国内外在大语言模型和AI Agent的开源与闭源策略上的差异,是技术发展、商业利益、国家战略和用户需求等多方面因素共同作用的结果。


作为国产软件,在某些使用场景下会更贴合我们的日常使用习惯,这细化到每一个按钮的位置,每一句提示词的表达方式。


最后,也真诚地希望各位,为国产AI产品能够贡献一份微薄之力,一个良好的开发生态需要所有参与者共同维护。


也许我们不经意间的一句评论、一次BUG反馈、一行代码提交,有些事就会变得不一样。


相信不管是国产大语言模型,还是国产AI产品,总有一天会实现弯道超车。


创作不易,如果觉得文章内容不错,随手点个赞、分享一下,谢谢你看我的文章。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询