对于本地PC部署DeepSeek,可能会受到电脑的内存、CPU、显卡的限制,如果想要扩容的话,只能更换硬件,这样的话成本简直高得离谱。而腾讯云高性能应用服务HAI恰恰解决了这个问题。HAI提供了不同的算力套餐,用户可以根据自己的需求购买,并且可以通过HAI预置的多种 AI 环境帮助用户快速部署。
所以本篇文章主要探究如何使用HAI,一键轻松完成DeepSeek的部署。
点击立即使用进入HAI的控制台,在控制台页面点击新建。
点击新建之后进入HAI服务创建页面。
从AI模型页面可以看到,除了有我们熟悉的Stable Diffusion AI绘画模型,还有Ollama。按照我们本地部署的思维和步骤来说,在上面步骤中选择安装Ollama,然后再用Ollama拉取DeepSeek大模型完成部署。
但是偶尔受到带宽或者网络因素影响,ollama下载DeepSeek大模型时,会让用户时间等待,所以HAI提供了更为高效的方式。
我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。
然后就是选择计费方式,这里我们就可以根据自己的需求选择计费模式。对于个人来说,可能不需要HAI 24H在线提供服务,因为HAI在关机的时候不会计费,所以按量计费比较合适。
在地域选择方面,有些区域支持学术加速能力。至于算力方案的选择上,对于DeepSeek-R1 1.5B和7B的模型,使用GPU基础型套餐就可以运行。如果想要DeepSeek实现更快的推理回答,就可以选择GPUT进阶型方案。
在经过上面简单的操作步骤之后,填写好我们实例名称、勾选协议,点击立即购买,就完成了在HAI上安装DeepSeek的整个过程。
在点击购买之后,就会跳转到算力管理页面,就可以看到DeepSeek的HAI实例正在创建中。
创建完成之后,就可以看到HAI的实例,这时候我们点击算力连接。
选择 ChatbotUI,就会自动跳转ChatBot页面使用DeepSeek。
可以看到访问chatbot,使用的是HAI实例的公网IP和6889端口。
在上面选择社区应用的时候,我们就知道应用环境内置了DeepSeek-R1 1.5B和7B两个模型。
我们可以切换模型。
这样,我们就可以使用DeepSeek了。
如果DeepSeek-R1 1.5B和7B无法满足你的需求,想要安装8B、14B的模型,我们可以通过JupterLab 连接实例,进行后台安装。
选择Terminal。
通过 ollama list 命令可以看到环境中预置的两个DeepSeek模型。
我们通过使用以下命令就可以安装8b模型。
ollama run deepseek-r1:8b
14b及其他模型同理。
与TIONE安装DeepSeek相比较,HAI也具备了快速部署DeepSeek的能力。通过一键式操作,用户就可以使用云化的DeepSeek。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。