部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >本地部署 DeepSeek:打造你的专属 AI 推理环境,简单明了适合新手

本地部署 DeepSeek:打造你的专属 AI 推理环境,简单明了适合新手

作者头像
@派大星
发布2025-02-19 23:43:08
发布2025-02-19 23:43:08
1630
举报
文章被收录于专栏:码上遇见你码上遇见你

随着 AI 大模型的爆发,DeepSeek 作为一款备受瞩目的开源大模型,吸引了众多开发者的关注。如何在本地搭建 DeepSeek 推理环境,以便更高效地进行 AI 研究和应用开发?本篇文章将为你详细解析本地部署 DeepSeek 的完整流程,让你轻松打造属于自己的 AI 推理环境。

准备工作

首先我们要准备一台电脑,配置越高当然越好,不过我的测试本是一个比较老旧的 MBP,配置如图:

同时,要在本地搭建好 Python 环境,这个不在这里赘述。

接下来本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek,在 Cherry Studio 中使用 DeepSeek

安装 Ollama

首先打开 Ollama 的官方网站:https://ollama.com/,如图:

点击 Download,会进入到如下页面:

点击 Download for macOS 即可进行下载

下载完成后解压安装。解压后会产生一个 Ollama.app。我们只需要将这个 app 移动到应用程序中即可。如图:

然后接下来我们找到应用程序中的 Ollama,点击进行安装

会出现如图所示的页面,只需点击 Next 即可

当点击完 Next 后会出现下图所示的页面,我们继续点击 Install 即可。

最后会出现 Finnish 页面,

安装好 Ollama 后 Mac 的通知栏会有一个类似下图的下图标,说明安装完毕

至此 Ollama 安装告一段落。

配置 Models

当安装完 Ollama 后,我们需要回到 Ollama 的官网找到 Models 去下载我们的模型,如图:点击 Download

点击完 Download 后会出现下图所示的页面,也就是我们所需要的东西:

我们点击 deepseek-r1。此时会出现如下页面

因为测试电脑的硬盘原因我们选择的是 8B 版的。可因个人需要进行调整。选择好 8B 版本后。复制图中的命令进行留存,后面会用到。

打开我们 Mac 的终端。输入上面我们记住的命令。记住要将命令中的 run 替换成 pull 然后执行下载。结果如图所示,出现 success 说明安装成功

安装配置 Cherry Studio

首先打开 Cherry Studio 官网:https://cherry-ai.com 点击下载客户端。如图:

下载完成后会有一个 cherry studio 的 dmg 文件,双击安装即可。

安装完成 Cherry Studio 后。我们在应用程序中找到并打开它。如图:

我们点击上图中:设置的小图标,进行配置模型。选择 Ollama。然后点击管理

接着选择我们下载的 8B 版本,或者是你下载的版本。

配置完成后,我们回到聊天助手那里

接着按图操作:

最后一步是在设置中配置模型参数:

至此 Cherry Studio 设置完毕。

测试

我们就可以进行测试啦:

通过本地部署 DeepSeek,我们可以打造属于自己的 AI 语言模型推理环境,无需依赖云端 API,同时能够获得更高的安全性和可控性。

你是否已经成功部署 DeepSeek?欢迎在评论区分享你的经验和遇到的问题!记得关注我,获取更多 AI 部署教程! 🚀

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 码上遇见你 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 准备工作
  • 安装 Ollama
    • 配置 Models
  • 安装配置 Cherry Studio
  • 测试
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档