前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >小白也能看懂的DeepSeek-R1本地部署指南

小白也能看懂的DeepSeek-R1本地部署指南

作者头像
全栈若城
发布于 2025-02-08 06:04:09
发布于 2025-02-08 06:04:09
59K00
代码可运行
举报
文章被收录于专栏:若城技术专栏若城技术专栏
运行总次数:0
代码可运行

春节期间,Deepseek以其卓越性能赢得众多技术爱好者的关注。用户评价褒贬不一,但国际巨头的震惊足以证明其非凡之处。若你想在本地部署该模型,探索其强大功能,以下指南将为你提供详细指导。本文将介绍Windows和Mac双平台的部署流程。

一、基础环境搭建
安装Ollama
  1. 下载Ollama
    • 访问Ollama官网 ,根据你的操作系统(Windows、Mac或Linux)下载相应安装包。
    • 以Mac和Windows为例,
  1. 安装验证
    • 安装完成后,在终端输入<font style="color:rgb(26, 32, 41);">ollama -v</font>验证安装是否成功。正确安装将显示版本号。
    • 如何打开终端
      • Mac:找到终端工具。
      • Windows:使用Win+R输入cmd。

然后检查

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama -v

下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。

二、模型部署
  1. 选择模型版本
    • 打开Ollama模型库,选择适合自己电脑硬件的DeepSeek-R1模型版本(1.5B、7B、32B等)。

以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。

通用配置原则
  1. 模型显存占用(估算):
    • 每 1B 参数约需 1.5-2GB 显存(FP16 精度)或 0.75-1GB 显存(INT8/4-bit 量化)。
    • 例如:32B 模型在 FP16 下需约 48-64GB 显存,量化后可能降至 24-32GB
  2. 内存需求:至少为模型大小的 2 倍(用于加载和计算缓冲)。
  3. 存储:建议 NVMe SSD,模型文件大小从 1.5B(约 3GB)到 32B(约 64GB)不等。
分平台配置建议

以下按模型规模和平台分类,提供 最低配置推荐配置

1.5B 模型

平台

最低配置

推荐配置

Windows

- CPU: Intel i5 / Ryzen 5

- CPU: Intel i7 / Ryzen 7

- RAM: 8GB

- RAM: 16GB

- GPU: NVIDIA GTX 1650 (4GB)

- GPU: RTX 3060 (12GB)

macOS

- M1/M2 芯片(8GB 统一内存)

- M1 Pro/Max 或 M3 芯片(16GB+)

Linux

- CPU: 4 核

- CPU: 8 核

- RAM: 8GB

- RAM: 16GB

- GPU: NVIDIA T4 (16GB)

- GPU: RTX 3090 (24GB)


7B/8B 模型

平台

最低配置

推荐配置

Windows

- CPU: Intel i7 / Ryzen 7

- CPU: Intel i9 / Ryzen 9

- RAM: 16GB

- RAM: 32GB

- GPU: RTX 3060 (12GB)

- GPU: RTX 4090 (24GB)

macOS

- M2 Pro/Max(32GB 统一内存)

- M3 Max(64GB+ 统一内存)

Linux

- CPU: 8 核

- CPU: 12 核

- RAM: 32GB

- RAM: 64GB

- GPU: RTX 3090 (24GB)

- 多卡(如 2x RTX 4090)


14B 模型

平台

最低配置

推荐配置

Windows

- GPU: RTX 3090 (24GB)

- GPU: RTX 4090 + 量化优化

- RAM: 32GB

- RAM: 64GB

macOS

- M3 Max(64GB+ 统一内存)

- 仅限量化版本,性能受限

Linux

- GPU: 2x RTX 3090(通过 NVLink)

- 多卡(如 2x RTX 4090 48GB)

- RAM: 64GB

- RAM: 128GB


32B 模型

平台

最低配置

推荐配置

Windows

- 不推荐(显存不足)

- 需企业级 GPU(如 RTX 6000 Ada)

macOS

- 无法本地部署(硬件限制)

- 云 API 调用

Linux

- GPU: 4x RTX 4090(48GB 显存)

- 专业卡(如 NVIDIA A100 80GB)

- RAM: 128GB

- RAM: 256GB + PCIe 4.0 SSD


平台差异说明
  1. Windows
    • 依赖 CUDA 和 NVIDIA 驱动,推荐使用 RTX 30/40 系列。
    • 大模型(14B+)需借助量化或模型分片技术。
  2. macOS
    • 仅限 Apple Silicon 芯片(M1/M2/M3),依赖 Metal 加速。
    • 模型规模超过 14B 时性能显著下降,建议量化或云端部署。
  3. Linux
    • 支持多 GPU 扩展和高效资源管理(如 NVIDIA Docker)。
    • 适合部署大型模型(14B+),需专业级硬件。

注意事项
  • 量化优化:使用 4-bit/8-bit 量化可大幅降低显存需求(如bitsandbytes[6])。
  • 框架支持:优先选择优化好的库(如 vLLM、DeepSpeed、HuggingFace)。
  • 散热:长时间推理需确保散热(建议风冷/水冷)。

建议根据实际需求选择硬件,并优先在 Linux 环境下部署大模型。

(二)顺利下载与稳定运行

确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:

  • 若选择 1.5B 版本,输入 ollama run deepseek-r1:1.5b 。
  • 若选择 7B 版本,输入 ollama run deepseek-r1:7b 。我 Mac 选择的是这个。
  • 若选择 8B 版本,输入 ollama run deepseek-r1:8b 。
  • 若选择 32B 版本,输入 ollama run deepseek-r1:32b 。
三、打造专属AI聊天室
(一)安装配置 “Cherry Studio”

前往Cherry Studio 官方网站****,根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包

  1. 安装

下载完成后,对于 Windows 系统,双击安装包,按照安装向导提示完成安装,期间可能需要同意用户协议、选择安装路径等常规步骤;对于 Mac 系统,将下载的应用程序文件拖移到 “应用程序” 文件夹;

  1. 配置

打开 Cherry Studio,在设置中找到 “模型设置” 选项。

  • 模型选择:从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。
  • 自定义配置:在自定义配置中,将 API 地址设置为http://localhost:11434 ,这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。
  • 模型参数设置:根据你的硬件配置和使用需求,设置模型的相关参数,如最大生成长度、温度等,一般默认参数即可满足常见需求,但对于特定任务,你可以适当调整,比如生成创意文本时,可将温度调高至 0.8 - 1.0,以增加文本的多样性;进行严谨的知识问答时,可将温度调低至 0.5 - 0.7 ,使回答更稳定。
  • API 密钥大家随意设置就好,然后点击检查就好。

配置完成后大家记得默认模型也可以配制成 deepseek。

(二)安装配置 Chatbox 客户端

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、AndroidiOS、Linux 和网页版上使用

为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网[8] 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。

下载安装好 Chatbox 后,打开软件进行关键配置:

  • API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。
  • 接口地址:填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。
  • 模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写 deepseek-r1:7b ,否则可能会导致连接失败。

通过以上步骤,你不仅可以使用 Cherry Studio 还能通过 Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。

四、如何使用DeepSeek
  1. 使用公式
    • 按照身份、任务、细节、格式的顺序重组问题,以获得所需结果。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
小白也能看懂的DeepSeek-R1本地部署指南
春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是 windows 和 mac 双平台的部署。废话不多说,现在开始和大家一起部署。
徐建国
2025/02/06
53.5K5
小白也能看懂的DeepSeek-R1本地部署指南
1分钟学会DeepSeek本地部署,小白也能搞定!
DeepSeek 是国内顶尖 AI 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。
磊哥
2025/02/09
2.1K0
1分钟学会DeepSeek本地部署,小白也能搞定!
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
最近 DeepSeek 大模型 AI 火遍全网,我也忍不住去了解了一番。尝试在本地部署后,发现整个过程非常简单,于是决定记录下来,分享给大家。本文将以最基础的方式演示如何部署,无需使用 Docker 容器,也不需要“魔法上网”,即使是计算机小白也能按照步骤轻松完成。
后端码匠
2025/02/06
3.3K0
大模型系列:Win10环境下部署DeepSeek图文教程
DeepSeek作为国内目前最火的AI技术,相信许多互联网爱好者都有所了解,大家可以通过DeepSeek官网进行体验访问,不过比较纠结的是大家估计都遇到过访问超时的情况。
小明互联网技术分享社区
2025/02/10
1.7K0
大模型系列:Win10环境下部署DeepSeek图文教程
本地部署DeepSeek-R1大模型
想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟
全栈开发日记
2025/02/10
1.1K0
本地部署DeepSeek-R1大模型
DeepSeek-R1本地部署如何选择适合你的版本?看这里
如果你正在考虑将DeepSeek-R1部署到本地服务器上,了解每种类型的硬件需求是非常重要的。DeepSeek-R1是一个非常强大的语言模型,它有多个不同的版本,每个版本在计算资源和硬件要求上都有不同的需求。本文将帮助你理解每个版本的参数、所需硬件以及如何根据自己的需求选择合适的类型。
凯哥Java
2025/02/11
6.5K0
DeepSeek-R1本地部署如何选择适合你的版本?看这里
AI 最佳实战:最简单、最强大的 DeepSeek R1 本地部署及配置建议指南
只会用 Ollama 本地运行 DeepSeek R1 等大模型?本文介绍一款简单、强大的本地运行各种 LLM 的工具,LM Studio。
运维有术
2025/02/12
6800
AI 最佳实战:最简单、最强大的 DeepSeek R1 本地部署及配置建议指南
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
DeepSeek现在流行度正盛,今年的机器学习就用他作为一个开端,开整。 本文是基于百度aistudio的在线课程《DeepSeek从云端模型部署到应用开发》。
IT从业者张某某
2025/03/15
1380
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
基于Ollama的DeepSeek R1本地部署全流程指南:从零到推理实战
在人工智能技术快速发展的今天,本地化部署大型语言模型(LLM)已成为开发者与研究人员的重要需求。本文将详细介绍如何通过Ollama框架实现DeepSeek R1模型的本地部署,涵盖从硬件选型到推理实战的全流程,并提供针对不同场景的优化方案。
Towserliu
2025/02/06
11K0
基于Ollama的DeepSeek R1本地部署全流程指南:从零到推理实战
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
DeepSeek 隐私政策中提到了关于用户输入信息收集的条款,无论你输入什么文本,以及上传什么文件都会被第三方机构所收集,所以如果是在进行相关的项目研究或者实验进展分析的时候,就很有必要对数据进行隐私保护,且本地部署是支持离线的
DARLING Zero two
2025/02/02
5.7K0
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
windows本地部署DeepSeek-R1模型
最近,在学习之余,我关注到了一个备受瞩目的热点话题——deepseek。这个横空出世的AI模型不仅效果超越了同期顶级AI,离谱的是,参数量不增反降的情况下,性能却大幅提升。最重要的是,deepseek是一个开源模型,这意味着人人都能享受到AI的强大力量。国内科技爱好者们对此激动不已,纷纷热议这一突破性进展。
柳神
2025/02/09
6950
windows本地部署DeepSeek-R1模型
教你如何进行Deepseek自动化部署
最近随着DeepSeek的爆火,好多同学私信询问我是否有简单强势的DeepSeek部署操作呢? 我的回答是有的兄弟有的,我这里有三种部署方案,大家可以参考下,分别是自动化部署、本地部署、可视化UI界面部署
Undoom
2025/04/30
1610
教你如何进行Deepseek自动化部署
高效快速教你deepseek如何进行本地部署并且可视化对话
随着最近一个新的人工智能deepseek的爆火,很多大佬都开始了在本地进行deepseek的部署操作,并且离线也可以使用,这里的话我就一步一步带你们部署本地的deepseek,说实话这个人工智能的实力不亚于open ai 的gpt
Undoom
2025/02/02
14.8K8
高效快速教你deepseek如何进行本地部署并且可视化对话
一文读懂!DeepSeek超简易本地部署教程
DeepSeek-R1模型在各项指标直逼甚至超越OpenAI及同类产品,迅速成为业界焦点。更令人惊喜的是该模型基于MIT协议免费开源,允许任何公司或个人自由商用,无需任何授权限制,一时间在AI界掀起了巨大波澜。
Tinywan
2025/02/12
3800
一文读懂!DeepSeek超简易本地部署教程
一文读懂DeepSeek-R1本地部署配置要求(建议收藏)
发布把AI带回家:DeepSeek-R1本地部署指南!再也不怕宕机了!!后,有不少读者私信询问本地部署DeepSeek-R1的电脑配置要求。
一臻AI
2025/03/06
1.8K0
一文读懂DeepSeek-R1本地部署配置要求(建议收藏)
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
相信大家现在对DeepSeek这个国产AI已经并不陌生了,并且大部分的朋友已经开始用上了DeepSeek。
蒙奇D索隆
2025/02/09
7632
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。
久绊A
2025/02/20
2.6K0
DeepSeek-R1模型本地部署如何选择版本(硬件要求与适用场景)
DeepSeek-R1采用MoE架构,支持从1.5B到1.8T参数的弹性部署,具备高效推理和低显存占用优势。文章详细列出不同版本的硬件需求,包括CPU、GPU、存储和内存配置,并针对轻量级、企业级和科研级部署给出具体适用场景。同时,提供量化加速、显存优化和分布式部署等性能优化建议.
码农编程进阶笔记
2025/04/27
5330
DeepSeek-R1模型本地部署如何选择版本(硬件要求与适用场景)
如何在本地部署 DeepSeek R1 模型?
在这个科技日新月异的时代,人工智能早已不再是遥不可及的未来幻想,而是悄然融入了我们的日常生活。
JanYork_简昀
2025/05/20
3160
如何在本地部署 DeepSeek R1 模型?
K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定
最近一年我都在依赖大模型辅助工作,比如 DeepSeek、豆包、Qwen等等。线上大模型确实方便,敲几个字就能生成文案、写代码、做表格,极大提高了效率。但对于企业来说:公司内部数据敏感、使用外部大模型会有数据泄露的风险。
Rainbond开源
2025/04/17
2800
推荐阅读
相关推荐
小白也能看懂的DeepSeek-R1本地部署指南
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验