部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >不要花钱买课了!3 分钟教你自己本地部署 DeepSeek-R1

不要花钱买课了!3 分钟教你自己本地部署 DeepSeek-R1

原创
作者头像
老码小张
修改2025-02-10 19:56:19
修改2025-02-10 19:56:19
7270
举报
文章被收录于专栏:玩转全栈玩转全栈

最近在群里看到个离谱的事——有人居然在淘宝、闲鱼等平台上收钱帮人部署 DeepSeek-R1!更离谱的是,居然还有不少人掏钱买这个服务。说实话,这种割小白的操作真的让人无语。

图片
图片
图片
图片

其实,部署 DeepSeek-R1 根本不难,甚至连“体力活”都算不上。只要你稍微动动手,三分钟就能自己免费搞定,完全没必要花冤枉钱。今天,我就手把手教你如何零基础部署 DeepSeek-R1,让你不再当韭菜。


方案选型:最简单的方法

如果你之前没玩过 LLM(大语言模型)部署,可能会觉得这事儿很复杂。确实,传统方法需要自己买显卡、装驱动、配环境、下载模型……听着就头大。但现在有了更简单的方案:

  • • Ollama:一个超级方便的本地大模型管理工具,支持各种 LLM,当然包括 DeepSeek-R1。 下载地址在此[1]。
图片
图片
  • • Open WebUI:一个开源的 Web 界面,专门用来给 Ollama 提供可视化管理,当然也谈不上专属为 Ollama 打造的 UI 界面,事实上所有的大模型对话界面都可以交给它,非常方便。

当然,如果你想要更省事,腾讯、 HAI 也提供了一键部署方案,直接用云服务器跑 DeepSeek-R1,省去所有繁琐的环境配置问题。

最后,我想说的是,如果是真的小白,自己部署干啥呢?为啥不直接用人家官网的呢?都是免费的。

图片
图片

用 Ollama + Open WebUI 本地部署

如果你想自己在自己本地机器上部署 DeepSeek-R1,最简单的方法就是用 Ollama[2] + Open WebUI[3]。这是目前社区里最流行的组合方案,完全在自己的机器上,当然前提是你先准备机器,我是 Mac M1 Pro 64G 内存,跑个基础版本的 R1 是完全没问题的,而且输出的速度还挺快的。

  • • 推荐配置:32G 内存 + 500GB 硬盘 + 1 张 GPU(如果你只是想尝试 CPU 也能跑,但速度会慢)。
图片
图片

Docker 中直接将这两镜像安排好,启动

先启动这两个镜像,端口映射分别配置:

  • • open WebUI:8080-->8080
  • • ollama:11434->11434

浏览器打开 open WebUI,然后在管理员设置[4]中去下载deepseek-r1模型就好。

图片
图片

deepseek-r1默认是7b模型

很多朋友问 7b 什么意思,这个是参数量的意思,7b 就是 7*10 亿参数,你就记住乘以 10 亿就好了。 这个模型只有 4 G 左右,16G 内存大概就可以跑起来,我的 M1 pro 跑起来就毫无任何压力。当然,更大的模型,如 671B,有些人试过,跑不起来,需要的算力更多。这个是需要更好的配置,最好是需要有显卡的。

图片
图片

open WebUI 中下载DeepSeek-R1

图片
图片

deepseek-r1模型下载中

下载完毕之后,模型选择deepseek-r1就 ok 了,可以对话了。

图片
图片

就这么简单,看到没,真的没有任何门槛,连体力活都算不上。

而且,记住,以后所有的开源模型,只要是是开源的,基本上直接在 open WebUI 的设置中下载就可以直接用上了,你就说有什么难度吧。


说到底,DeepSeek-R1 部署真的没那么难,关键是你愿不愿意自己尝试。淘宝上那些收钱代部署的,完全是靠信息差割韭菜,其实稍微查一下资料,你就能自己搞定。

如果你喜欢折腾,可以试试 Ollama + Open WebUI,享受自己部署的乐趣;如果你只是想快速用上大模型,那就直接上 腾讯云 HAI,省时省力。

不管选哪种方式,至少别让别人用 0 成本的操作割你的韭菜!自己动手,才是开发者的精神。

引用链接

[1] 在此: https://ollama.com/download [2] Ollama: https://ollama.com/download [3] Open WebUI: https://github.com/open-webui/open-webui [4] 设置: http://localhost:8080/admin/settings

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 方案选型:最简单的方法
  • 用 Ollama + Open WebUI 本地部署
    • 引用链接
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档