部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!

作者头像
蒙奇D索隆
发布2025-02-10 12:39:33
发布2025-02-10 12:39:33
920
举报

Ollama本地部署DeepSeek

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署

导读

大家好,很高兴又和大家见面啦!!!

相信大家现在对DeepSeek这个国产AI已经并不陌生了,并且大部分的朋友已经开始用上了DeepSeek。

说来惭愧,我最近在忙着其他的事情,所以没有第一时间接触该AI,不过没关系,至少咱们现在也是开始使用DeepSeek这款国产AI了。

就我个人的使用体验,我感觉不太好,基本上每天一个问题之后,就会出现服务器繁忙,请稍后再试的提示,相信大家也很头疼这个问题。

不过没关系,今天博主就给大家带来了一种解决方法——通过ollama进行deepseek的本地部署。

接下来我们就来看一下具体应该如何操作吧!!!

一、什么是Ollama

Ollama是一个开源的、用于运行各种语言模型的工具,具有以下特点和功能:

1.1 主要特点

  • 易于使用:提供简单的命令行界面,用户通过命令就能轻松完成模型的下载、运行等操作,无需复杂的配置和专业知识。
  • 模型丰富:支持多种流行的语言模型,如Llama 2、Mistral等,满足不同用户在自然语言处理等方面的需求,像文本生成、问答系统、对话交互等场景。
  • 本地运行:能在本地设备运行语言模型,数据处理在本地进行,保障数据隐私和安全性,减少对网络的依赖,提高响应速度。

1.2 核心功能

  • 模型管理:可便捷地下载、安装、删除和更新语言模型,如使用 ollama pull 命令下载模型, ollama rm 命令删除模型。
  • 模型运行:能启动语言模型并进行交互,通过 ollama run 命令,用户输入文本,模型生成相应回复,可用于开发聊天机器人、内容生成工具等。
  • API支持:提供API,方便开发者将Ollama集成到其他应用程序或开发框架中,扩展应用功能,实现与现有系统的无缝对接。

1.3 应用场景

  • 自然语言处理研究:为研究人员提供便捷平台,方便他们快速试验不同模型和算法,推动自然语言处理技术发展。
  • 聊天机器人开发:基于Ollama运行的语言模型开发智能聊天机器人,用于客服、智能助手等领域,提高用户交互体验。
  • 内容创作辅助:帮助写作者生成创意、构思文章、提供写作建议等,提升内容创作效率和质量。

二、Ollama中的命令

Ollama的命令主要有以下这些:

启动Ollama服务: ollama serve 创建模型: ollama create /path/to/Modelfile 显示模型信息: ollama show model_name 运行模型: ollama run model_name 从注册表拉取模型: ollama pull model_name 将模型推送到注册表: ollama push model_name 列出所有模型: ollama list 或 ollama ls 列出正在运行的模型: ollama ps 删除模型: ollama rm model_name 查看版本: ollama -v 或 ollama --version 复制模型: ollama cp old_model new_model 停止正在运行的模型: ollama stop model_name 获取帮助信息: ollama help 或 ollama -h

三、Ollama的安装

以下是不同系统快速下载Ollama的方法:

  • macOS系统:打开浏览器,访问ollama官网的下载页面,下载安装包Ollama-darwin.zip。下载解压后,将Ollama.app移动到/Applications目录中。
  • Windows系统:进入ollama官网,点击“Download”按钮,选择Windows版本的安装包进行下载。下载完成后,双击下载的.exe文件,按照安装向导完成安装。
  • Linux系统:打开终端,执行命令 curl -fsSL https://ollama.com/install.sh | sh 即可完成安装。

3.1 Windows系统的安装步骤

由于我自己的电脑是Windows 10,因此这里我只能够展示一下自己的安装过程。

当我们进入官网后,我们可以看到Ollama的主页内容为:

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_Ollama_02
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_Ollama_02
Ollama支持的AI模型

可以看到Ollama支持的AI模型非常丰富,常见的有以下几类:

  • Llama系列
  • Llama 2:Meta推出的大型语言模型,在文本生成等任务上表现出色。
  • Llama 3.1:Llama系列的新版本,具有更先进的对话和问答能力。
  • Mistral系列
  • Mistral 7B:功能多样,能很好地平衡性能和推理速度,适用于自然语言处理和编码任务。
  • WizardLM系列
  • WizardLM-2:以7亿参数的轻量化设置,在聊天和编码场景中展现出高效性,其响应可与更大规模的模型相媲美。
  • Phi系列
  • Phi 3:由微软研究院开发,具备强大的推理和语言理解能力,适用于一般的自然语言处理任务。
  • Deepseek系列
  • deepseek-v3:专注于文本生成任务。
  • 其他
  • Gemma2:可用于多种自然语言处理场景。
  • Stable Code:专为编码任务设计,在代码补全和生成方面优势明显。
  • Neural Chat:适用于对话生成等任务
下载Ollama

在进入官网后,我们直接点击下载按钮,进入Ollama的下载界面,选择自己的系统进行文件下载:

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_Ollama_03
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_Ollama_03

PS: 这里要注意,这个下载的网速可能不太稳定,如果下载的时间过长,可以取消重新下载,多试几次。我第一次下载的时候它需要17个小时才能完成下载,但是后面尝试了多次后,最终只用了十几分钟的时间就完成了下载。它这里下载的实际上就是一个安装文件,对应的文件我已经上传了,大家不想在官网下载,也可以直接下载资源。

下载好后我们可以打开我的电脑,选择下载,找到刚刚下载好的文件:

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署_04
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署_04

这里我的习惯是把下载好的文件直接剪切后,粘贴到自己所需要进行存放的目录下,我的习惯是将软件类的文件放在D盘,大家根据自己的需求进行放置。

安装Ollama

我们在完成下载后,就可以直接找到对应的文件进行安装操作了:

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_DeepSeek_05
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_DeepSeek_05

现在我们双击该应用程序进入安装界面,我们就能够看到对应的安装窗口:

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署_06
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署_06

这里我们直接点击Install进行安装,等待程序自己完成安装,这里程序是默认安装在C盘中,这个我们无需理会。

检查安装

由于该程序在安装完成后,可能无法正常弹出对应的控制台窗口用于提示安装是否成功,这里我们可以通过本地的控制台窗口来进行检查,步骤如下:

  1. WIN+R:打开运行窗口
  2. 输入CMD:打开控制台窗口
  3. 在终端输入 ollama --version ,若输出版本号,则说明安装成功。
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署_07
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_本地部署_07

可以看到,此时我已经完成了Ollama的安装工作。

四、DeepSeek本地部署

在完成Ollama的安装后,我们就可以继续进行AI模型的本地部署了,不同版本的部署指令如下所示:

版本型号

安装指令

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

DeepSeek-V3

ollama run deepseek-v3

由于我这台电脑已经很老旧了,各种配置只能够适应r1的最低版本.1.5b,这里我也就给大家看一下安装好后的界面:

【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_Ollama_08
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!_Ollama_08

至此,我们就完成了deepseek本地部署的工作。

五、DeepSeek-R1所需电脑配置

DeepSeek-R1各个版本所需的电脑配置如下:

  • DeepSeek-R1-1.5B:CPU最低4核,内存8GB+,硬盘3GB+存储空间,显卡非必需,若GPU加速可选4GB+显存的如GTX 1650,适用于低资源设备部署等。
  • DeepSeek-R1-7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存的如RTX 3070/4060,可用于本地开发测试等。
  • DeepSeek-R1-8B:硬件需求与7B相近略高,CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存的如RTX 3070/4060,适用于需更高精度的轻量级任务。
  • DeepSeek-R1-14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存如RTX 4090或A5000,可用于企业级复杂任务等。
  • DeepSeek-R1-32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存如A100 40GB或双卡RTX 3090,适合高精度专业领域任务等。
  • DeepSeek-R1-70B:CPU 32核以上,内存128GB+,硬盘70GB+,显卡需多卡并行,如2×A100 80GB或4×RTX 4090,适合科研机构等进行高复杂度生成任务等。
  • DeepSeek-R1-671B:CPU 64核以上,内存512GB+,硬盘300GB+,显卡需多节点分布式训练,如8×A100/H100,适用于国家级/超大规模AI研究等。

大家可以根据自己的电脑配置来安装更加合适的版本。

结语

AI是科技发展的产物,随着时代的发展,AI将会逐渐在社会中进行普及,相信再过一段时间后,AI也会像手机、电脑这样的科技产物,被所有人使用。

为了与时代接轨,顺应时代的洪流同步发展,我们应该开始接触并学习一些AI的知识与相关软件的操作,以帮助我们在日常工作中大大提高我们的工作效率,节省我们的工作时间。

接下来,博主也会开始慢慢的更新一些AI相关的博客内容。期待各位的关注、点赞、与评论,同时大家也可以将博主的文章分享给更多需要的人!!!

谢谢大家,咱们下一篇内容再见!!!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Ollama本地部署DeepSeek
  • 导读
  • 一、什么是Ollama
    • 1.1 主要特点
    • 1.2 核心功能
    • 1.3 应用场景
  • 二、Ollama中的命令
  • 三、Ollama的安装
    • 3.1 Windows系统的安装步骤
      • Ollama支持的AI模型
      • 下载Ollama
      • 安装Ollama
      • 检查安装
  • 四、DeepSeek本地部署
  • 五、DeepSeek-R1所需电脑配置
  • 结语
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档