HAI已提供DeepSeek-R1 1.5B及7B模型预装环境(DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B),用户可在HAI中快速启动,进行测试并接入业务。
若您有更大尺寸模型(14B、32B、70B)的使用需求,也可根据使用说明中的指引进行快速部署
DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
论文链接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
启动方式一:通过chatbot ollama直接使用
2. 进入chatbot后,按需选择“deepseek-r1:1.5b”或“deepseek-r1:7b”即可开始使用
启动方式二:使用jupyterlab,通过命令行启动
2. 进入JupyterLab,在terminal中输入如下命令行,即可开始使用
ollama run deepseek-r1:1.5b
或
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B(对显存大小要求较高,请选择更高配置的机型,以免溢出)
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B(对显存大小要求较高,请选择更高配置的机型,以免溢出)
ollama run deepseek-r1:70b
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。