部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >DeepSeek上云 | 腾讯云HAI如何部署使用DeepSeek

DeepSeek上云 | 腾讯云HAI如何部署使用DeepSeek

原创
作者头像
叫我阿柒啊
发布2025-02-07 01:55:46
发布2025-02-07 01:55:46
8970
举报

前言

对于本地PC部署DeepSeek,可能会受到电脑的内存、CPU、显卡的限制,如果想要扩容的话,只能更换硬件,这样的话成本简直高得离谱。而腾讯云高性能应用服务HAI恰恰解决了这个问题。HAI提供了不同的算力套餐,用户可以根据自己的需求购买,并且可以通过HAI预置的多种 AI 环境帮助用户快速部署。

所以本篇文章主要探究如何使用HAI,一键轻松完成DeepSeek的部署。

HAI

点击立即使用进入HAI的控制台,在控制台页面点击新建。

1. 新建应用

点击新建之后进入HAI服务创建页面。

从AI模型页面可以看到,除了有我们熟悉的Stable Diffusion AI绘画模型,还有Ollama。按照我们本地部署的思维和步骤来说,在上面步骤中选择安装Ollama,然后再用Ollama拉取DeepSeek大模型完成部署。

但是偶尔受到带宽或者网络因素影响,ollama下载DeepSeek大模型时,会让用户时间等待,所以HAI提供了更为高效的方式。

2. 选择应用 - DeepSeek

我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。

3. 计费模式及算力方案

然后就是选择计费方式,这里我们就可以根据自己的需求选择计费模式。对于个人来说,可能不需要HAI 24H在线提供服务,因为HAI在关机的时候不会计费,所以按量计费比较合适。

在地域选择方面,有些区域支持学术加速能力。至于算力方案的选择上,对于DeepSeek-R1 1.5B和7B的模型,使用GPU基础型套餐就可以运行。如果想要DeepSeek实现更快的推理回答,就可以选择GPUT进阶型方案。

4. 安装

在经过上面简单的操作步骤之后,填写好我们实例名称、勾选协议,点击立即购买,就完成了在HAI上安装DeepSeek的整个过程。

DeepSeek使用

在点击购买之后,就会跳转到算力管理页面,就可以看到DeepSeek的HAI实例正在创建中。

1. 算力连接

创建完成之后,就可以看到HAI的实例,这时候我们点击算力连接

选择 ChatbotUI,就会自动跳转ChatBot页面使用DeepSeek。

可以看到访问chatbot,使用的是HAI实例的公网IP和6889端口。

2. 模型选择

在上面选择社区应用的时候,我们就知道应用环境内置了DeepSeek-R1 1.5B和7B两个模型。

我们可以切换模型。

这样,我们就可以使用DeepSeek了。

下载模型

如果DeepSeek-R1 1.5B和7B无法满足你的需求,想要安装8B、14B的模型,我们可以通过JupterLab 连接实例,进行后台安装。

选择Terminal。

通过 ollama list 命令可以看到环境中预置的两个DeepSeek模型。

我们通过使用以下命令就可以安装8b模型。

代码语言:bash
复制
ollama run deepseek-r1:8b

14b及其他模型同理。

结语

与TIONE安装DeepSeek相比较,HAI也具备了快速部署DeepSeek的能力。通过一键式操作,用户就可以使用云化的DeepSeek。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • HAI
    • 1. 新建应用
    • 2. 选择应用 - DeepSeek
    • 3. 计费模式及算力方案
    • 4. 安装
  • DeepSeek使用
    • 1. 算力连接
    • 2. 模型选择
  • 下载模型
  • 结语
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档