首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >DeepSeek 本地部署保姆级教程完整细节版!(附粉丝群福利)

DeepSeek 本地部署保姆级教程完整细节版!(附粉丝群福利)

作者头像
默 语
发布2025-02-11 13:57:09
发布2025-02-11 13:57:09
13.8K0
举报
文章被收录于专栏:JAVAJAVA

📌 什么情况下适合本地部署?

本地部署 DeepSeek 不是所有人都需要,如果你只是日常使用 AI,建议直接用官方 App 或网页版,简单高效👇

🔹 手机端:直接在应用商城下载 DeepSeek APP 🔹 网页版DeepSeek 官方网站

DeepSeek App
DeepSeek App

那么,哪些情况下适合本地部署呢?

数据安全:本地处理私密数据,避免泄露 ✅ 离线使用:即使断网,AI 仍然可用 ✅ 高频任务:需要处理大量 AI 任务,调用 API 成本高 ✅ 个性化定制:想要调整 AI 模型,优化提示词

本地 vs. 云端,适用场景对比👇

本地 vs 云端对比
本地 vs 云端对比

📌 本地部署 DeepSeek 全流程

第一步:安装 Ollama

Ollama 是一个本地运行 AI 模型的工具,就像一个 AI 容器,能管理各种大模型。

1️⃣ 访问 Ollama 官网 👉 ollama.com 2️⃣ 下载并安装 Ollama(Mac 选左,Windows 选右)

Ollama 官网下载
Ollama 官网下载

安装后,桌面会出现 Ollama 图标(小羊驼 🦙),这表示安装成功!


第二步:选择 DeepSeek 模型

1️⃣ 进入 Ollama 官网,选择【Models】 2️⃣ 找到 DeepSeek-R1,并选择合适的参数版本

DeepSeek 选择模型
DeepSeek 选择模型

📌 参数选择建议

  • 1.5B:适合低配电脑,2G 显存即可运行
  • 7B:适合 8G+ 显存的显卡
  • 32B:需要 32G 显存,适合高端设备

第三步:安装 DeepSeek 模型

1️⃣ 复制下载命令(示例:ollama run deepseek-r1:1.5b

复制下载命令
复制下载命令

2️⃣ 打开 CMD(命令行)

  • Win+R,输入 cmd,回车

3️⃣ 粘贴刚刚复制的命令,回车执行

  • 模型开始下载,时间取决于网速和显存
下载 DeepSeek
下载 DeepSeek

第四步:运行 DeepSeek AI

模型下载完毕后,直接输入命令:

代码语言:javascript
复制
ollama run deepseek-r1:1.5b

然后就可以开始和 本地 AI 进行对话 了!🎉


📌 进阶玩法:搭建 Web 界面(可选)

如果你觉得 命令行界面太麻烦,可以安装 Open-WebUI,让 AI 变成网页版界面👇

Open-WebUI 运行界面
Open-WebUI 运行界面

安装步骤: 1️⃣ 安装 Docker 👉 docker 官网 2️⃣ 下载 Open-WebUI 3️⃣ 运行 Web 端,输入 DeepSeek 模型参数

⚠️ 注意:如果你对命令行不熟悉,建议 先不安装 WebUI,避免中途遇到问题影响使用体验。


📌 进阶 FAQ:模型管理

🔹 如何查看已安装的模型?

代码语言:javascript
复制
ollama list

🔹 如何删除模型?

代码语言:javascript
复制
ollama rm deepseek-r1:1.5b

🔹 如何停止模型运行?

代码语言:javascript
复制
ollama stop
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 📌 什么情况下适合本地部署?
  • 📌 本地部署 DeepSeek 全流程
    • 第一步:安装 Ollama
    • 第二步:选择 DeepSeek 模型
    • 第三步:安装 DeepSeek 模型
    • 第四步:运行 DeepSeek AI
  • 📌 进阶玩法:搭建 Web 界面(可选)
  • 📌 进阶 FAQ:模型管理
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档