再也不用担心繁琐的环境配置,真正实现“点一下就能跑模型”。
下周三,腾讯云工程师还将现场演示教你 DeepSeek 丝滑部署的 N 种方式,记得预约直播!
快速开始
CNB 已内置支持 1.5b/7b/8b/14b/32b 等 DeepSeek 模型,
无需等待下载,可快速体验。
操作步骤很简单:
1. fork 整个仓库: https://cnb.cool/examples/ecosystem/deepseek
2. 选择想体验模型对应的分支,点击云原生开发。
3. 约 5~10 秒后,进入远程开发,在命令行输入以下命令即可体验对应模型,即可与 DeepSeek 进行对话。
ollama serve &
ollama run $ds
另外, 在腾讯云任意服务器上可通过以下方式运行,无流量费用,免模型下载。
docker run --rm -it docker.cnb.cool/examples/ecosystem/deepseek/1.5b:latest
ollama serve &
ollama run deepseek-r1:1.5b
进阶部署
如需部署并长期使用,推荐通过云应用快速部署 DeepSeek
-End-