近期deepseek继开源V3、R1大模型之后,又开源了Janus-Pro多模态支持,而且还支持app版本、网页版对话。
在春节期间更是掀起了一波国产AI的浪潮。
但如何更加经济实惠的本地化部署及使用相关大模型,已经有很多文章介绍过了。
今天提供一个更加便捷的新选择,腾讯云HAI及TI平台目前已经支持deepseek的R1及V3模型,并且支持从1.5B到70B的参数选项。
这篇文章就将介绍下如何快速在HAI平台快速部署deepseek模型
HAI访问地址如下,目前支持免费部署体验:
网址:cloud.tencent.com/product/hai
第一次使用,需要先进行授权
如果之前已经有使用过,那么点击立即使用即可
跳转后选择新建
选择社区应用,然后选择deepseek-R1即可
选择完成后,点击立即购买即可,然后回到控制台就可以看到服务正在创建中。
你可以选择通过web端使用,可以通过jupytertab提供的terminal来访问,因为提供了公网ip及端口,也可以配置到一些开源的webui平台来使用。
具体如下:
web端访问可以通过chatbotUI来访问,在「HAI」控制台选择「算力连接」->「ChatbotUI」,在新窗口中可根据页面指引操作;
试用:
终端访问方式如下:
在HAI控制台选择算力连接->JupyterLab,新建一个Terminal
输入「ollama run deepseek-r1」命令加载默认的1.5b模型。
如果1.5B模型无法满足需求,可在命令行后输入7B/8B/14B等参数指令,自由切换至对应规格的模型。
目前deepseek的优势在于价格低廉
但是部分场景的使用,需要私有化的部署。
这种情况下,如果自行去购买算力卡、配置网络、下载模型等费时费力
可以选择HAI平台来快速体验及提供线上服务。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。