作者:坚果
春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是 windows 和 mac 双平台的部署。废话不多说,现在开始和大家一起部署。
常规下载
首先,访问Oll[1]ama 官[2]网[3] ,根据你的操作系统(Windows、Mac 或 Linux),选择对应的安装包进行下载。
我这里以 mac 和 windows 为例,如果大家安装不了,也可以在我的公众号 nutpi 回复“Ollama”获取快速下载链接。
安装验证
安装完成后,为了确认 Ollama 是否成功安装,在终端输入 ollama -v 。如果安装正确,终端会显示 Ollama 的版本号,这就表明你已经成功完成了基础环境搭建的第一步。
关于如何打开终端,我想说的是
mac 的话,找到这个工具,
windows 的话,win+r 输入 cmd。
然后检查
ollama -v
下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。
打开Ollam[4]a 模型库[5] ,你会看到丰富多样的 DeepSeek-R1 模型版本,如 1.5B、7B、32B 等。根据自身电脑硬件配置来选择合适的模型版本至关重要。
以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。
以下按模型规模和平台分类,提供 最低配置 和 推荐配置。
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - CPU: Intel i5 / Ryzen 5 | - CPU: Intel i7 / Ryzen 7 |
- RAM: 8GB | - RAM: 16GB | |
- GPU: NVIDIA GTX 1650 (4GB) | - GPU: RTX 3060 (12GB) | |
macOS | - M1/M2 芯片(8GB 统一内存) | - M1 Pro/Max 或 M3 芯片(16GB+) |
Linux | - CPU: 4 核 | - CPU: 8 核 |
- RAM: 8GB | - RAM: 16GB | |
- GPU: NVIDIA T4 (16GB) | - GPU: RTX 3090 (24GB) |
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - CPU: Intel i7 / Ryzen 7 | - CPU: Intel i9 / Ryzen 9 |
- RAM: 16GB | - RAM: 32GB | |
- GPU: RTX 3060 (12GB) | - GPU: RTX 4090 (24GB) | |
macOS | - M2 Pro/Max(32GB 统一内存) | - M3 Max(64GB+ 统一内存) |
Linux | - CPU: 8 核 | - CPU: 12 核 |
- RAM: 32GB | - RAM: 64GB | |
- GPU: RTX 3090 (24GB) | - 多卡(如 2x RTX 4090) |
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - GPU: RTX 3090 (24GB) | - GPU: RTX 4090 + 量化优化 |
- RAM: 32GB | - RAM: 64GB | |
macOS | - M3 Max(64GB+ 统一内存) | - 仅限量化版本,性能受限 |
Linux | - GPU: 2x RTX 3090(通过 NVLink) | - 多卡(如 2x RTX 4090 48GB) |
- RAM: 64GB | - RAM: 128GB |
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - 不推荐(显存不足) | - 需企业级 GPU(如 RTX 6000 Ada) |
macOS | - 无法本地部署(硬件限制) | - 云 API 调用 |
Linux | - GPU: 4x RTX 4090(48GB 显存) | - 专业卡(如 NVIDIA A100 80GB) |
- RAM: 128GB | - RAM: 256GB + PCIe 4.0 SSD |
建议根据实际需求选择硬件,并优先在 Linux 环境下部署大模型。
确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:
image-20250205091100152
image-20250205103900851
image-20250205104328495
配置完成后大家记得默认模型也可以配制成 deepseek。
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用
为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网[8] 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。
下载安装好 Chatbox 后,打开软件进行关键配置:
image-20250205103704456
通过以上步骤,你不仅可以使用 Cherry Studio 还能通过 Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。
1.给大家一个公式
按“身份 → 任务 → 细节 → 格式”顺序重组问题: > “作为(身份),请(任务),要求(细节),用(格式)输出” 。