部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >DeepSeek-R1 高性能应用服务 HAI 开箱即用

DeepSeek-R1 高性能应用服务 HAI 开箱即用

原创
作者头像
geru
修改2025-01-31 12:12:15
修改2025-01-31 12:12:15
12K50
代码可运行
举报
运行总次数:0
代码可运行

一、环境说明

HAI已提供DeepSeek-R1 1.5B及7B模型预装环境(DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B),用户可在HAI中快速启动,进行测试并接入业务。

若您有更大尺寸模型(14B、32B、70B)的使用需求,也可根据使用说明中的指引进行快速部署

DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

论文链接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

二、使用说明

启动方式一:通过chatbot ollama直接使用

  1. 创建完成后,点击“算力连接”中的“ChatbotUI”

2. 进入chatbot后,按需选择“deepseek-r1:1.5b”或“deepseek-r1:7b”即可开始使用

启动方式二:使用jupyterlab,通过命令行启动

  1. 创建完成后,点击“算力连接”中的“JupyterLab”

2. 进入JupyterLab,在terminal中输入如下命令行,即可开始使用

代码语言:txt
复制
ollama run deepseek-r1:1.5b

代码语言:txt
复制
ollama run deepseek-r1:7b

三、更大尺寸模型部署方式

DeepSeek-R1-Distill-Llama-8B

代码语言:javascript
代码运行次数:0
复制
ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

代码语言:javascript
代码运行次数:0
复制
ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B(对显存大小要求较高,请选择更高配置的机型,以免溢出)

代码语言:javascript
代码运行次数:0
复制
ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B(对显存大小要求较高,请选择更高配置的机型,以免溢出)

代码语言:javascript
代码运行次数:0
复制
ollama run deepseek-r1:70b

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、环境说明
  • 二、使用说明
  • 三、更大尺寸模型部署方式
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档