近年来,随着大模型与多场景应用的蓬勃发展,AI工程师越来越需要快速、高效且低成本地部署和管理模型服务。腾讯云HAI(High-performance AI)平台是一个面向高性能计算与深度学习的综合解决方案,提供了 GPU/CPU 资源调度、自动化部署以及运维监控等功能;而 DeepSeek 则是一个帮助开发者快速搭建数据处理、模型训练与推理的智能化框架。将两者结合后,你可以更轻松地进行 AI 任务的全流程管理,比如数据处理、模型训练、自动化推理,以及持续迭代升级。
在开始前,需要先完成以下准备工作:
点击立即使用进入HAI的控制台,在控制台页面点击新建。
点击新建之后进入HAI服务创建页面。
我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。
然后就是选择计费方式,这里我们就可以根据自己的需求选择计费模式。对于个人来说,可能不需要HAI 24H在线提供服务,因为HAI在关机的时候不会计费,所以按量计费比较合适。
在地域选择方面,有些区域支持学术加速能力。至于算力方案的选择上,对于DeepSeek-R1 1.5B和7B的模型,使用GPU基础型套餐就可以运行。如果想要DeepSeek实现更快的推理回答,就可以选择GPUT进阶型方案。
在经过上面简单的操作步骤之后,填写好我们实例名称、勾选协议,点击立即购买,就完成了在HAI上安装DeepSeek的整个过程。
在点击购买之后,就会跳转到算力管理页面,就可以看到DeepSeek的HAI实例正在创建中。
选择 ChatbotUI,就会自动跳转ChatBot页面使用DeepSeek。可以看到访问chatbot,使用的是HAI实例的公网IP和6889端口。在上面选择社区应用的时候,我们就知道应用环境内置了DeepSeek-R1 1.5B和7B两个模型。
可以切换模型。
这样,我们就可以使用DeepSeek了。
如果DeepSeek-R1 1.5B和7B无法满足你的需求,想要安装8B、14B的模型,我们可以通过JupterLab 连接实例,进行后台安装。
选择Terminal。
通过 ollama list 命令可以看到环境中预置的两个DeepSeek模型。
通过使用以下命令就可以安装其他模型。
ollama run deepseek-r1:16b
通过本文的部署指南,你应该对在腾讯云HAI平台上快速接入并部署DeepSeek有了大致的认识与操作思路。实际生产环境中,由于项目需求及团队规模的不同,可能会对镜像制作、数据管理、安全合规等提出更多细化要求。建议在上手后,多结合自身业务实践,通过自动化脚本或平台服务将DeepSeek的功能与HAI平台的管理能力深度融合,从而进一步提升AI研发效率和稳定性。
有任何问题或意见,欢迎在相关社区或官方文档中查阅更多信息,也可以向腾讯云和DeepSeek官方团队寻求支持。祝你一切部署顺利,玩得开心!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。