
coze开源之后,很多朋友在问怎么在企业私有化部署,今天带大家实地操作一下,如何进行开源版本coze的部署。
如果大家有遇到私有化部署、实际场景落地的问题,也可以欢迎交流。

接下来是手把手的实操教程(以Windows为例,Linux版本单开,差不多,适用于企业私有化部署)。
确认配置环境
首先明确一点,我们本次部署的是已经开源的Coze Studio,是一个开发平台,在它的开源文档里面可以看到对服务器的要求。

windows本地部署
如果是Windows进行本地安装coze,需要安装 Docker Desktop 。
下载地址:https://docs.docker.com/desktop/setup/install/windows-install/
这里选择版本的话,可以根据你的系统来,一般是x86_64。

然后本地Win+R打开命令行,拉取代码到本地:
# Clone the code
git clone https://github.com/coze-dev/coze-studio.git
首次部署并启动 Coze Studio 开源版本之前,需要在 Coze Studio 项目中配置模型服务。
Coze Studio 目前支持的模型服务如下:Ark (Volcano Ark)、OpenAI、DeepSeek、Claude、Ollama、Qwen、Gemini。
也就是说,本地模型部署(ollama),全球顶尖模型均可支持。
顺便提一下,模板目录(backend/conf/model/template/)下已经预设好了各个模型的支持文件。

然后从模板目录复制模型的模板文件,
并粘贴到配置文件目录(backend/conf/model/)中,以gemini为例。
接下来需要设置的字段有
如上最后两个字段这里获取:https://aistudio.google.com/apikey

接下来启动docker desktop,然后去本地启动。
cd docker
cp .env.example .env
docker compose --profile "*" up -d启动过程会遇到这个问题,需要在本地进行修改一下。
问题诊断:https://github.com/coze-dev/coze-studio/issues/6

问题根源:脚本文件的换行符格式错误 (CRLF vs LF)
在 Windows 系统上编辑了项目文件,Windows 默认使用 CRLF作为换行符,而 Docker 容器内的 Linux 环境需要 LF。这会导致脚本无法被正确识别和执行。
解决方法:
使用代码编辑器(如 VS Code)打开 elasticsearch-setup 服务所依赖的启动脚本(例如 setup.sh 或类似的 .sh 文件)。在编辑器的右下角,你会看到 CRLF 或 LF 的标识,点击它并选择 LF。保存文件后再重新启动就解决了

修改完成之后就可以在线使用了。
启动服务后,通过浏览器访问 http://localhost:8888/ 来打开 Coze Studio。

注册新账号账号,登陆到里面。

探索里面,目前包括插件和应用模板。

开源版coze里面的插件可以根据其功能进行分类:
模板区目前有两个:

我复制了第一个模板,点进去,里面是已经写好了提示词的一个agent。

如果我尝试去发布的话,目前是没有开放第三方通道的(不过可以二次定制开发)。

然后再说说工作流,这个藏的比较隐秘。
目前这个版本只支持一个分隔文本信息的工作流。

复制一版,然后我点进去看看。

工作流里面的基本工作节点都是存在的。

最后再说一下AI应用,这块在我们新创建的时候,需要选择智能体/AI应用。


确认新建AI应用之后,进入到扣子应用IDE。

多种发布渠道在最初始的开源版本里面暂未显示。

体验下来,开源版扣子为企业和开发者提供了一个最最最最基础的壳子,企业&开发者还是需要根据自己的需求去定制开发插件和应用模板。
或许,这波是同deepseek一样的机会。
很明显的,非常匮乏的插件生态,
伴随着应用落地,企业需要成熟的工作流模板和应用模板。
以及最终如何适配到企业自己的“扣子空间”里面,做成专家agent,直接调用即可,工作流转MCP,其实dify已经实现了,之前测试过一个,直接生成深度研究的MCP,,,这都是未来的事情。
关于更多插件&应用开发模板,将在接下来的文章中进行实践分享,更多的信息会放在如下社群里面,感谢支持。
(好的东西自然给更需要的人)
写在最后
我创建了一个AI新知圈,为了更好的为需要AI的群友们提供服务,特别的设置了付费门槛,这是终身门槛,
随着AI的兴起,你也可能会成为AI大神,所以是互相交流的过程,需求/资源对接等等。