部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >1分钟学会DeepSeek本地部署,小白也能搞定!

1分钟学会DeepSeek本地部署,小白也能搞定!

作者头像
磊哥
发布于 2025-02-09 14:11:06
发布于 2025-02-09 14:11:06
2K0
举报
文章被收录于专栏:王磊的博客王磊的博客

DeepSeek 是国内顶尖 AI 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。

DeepSeek 身上的标签有很多,其中最具代表性的标签有以下两个:

  1. 低成本(不挑硬件、开源)
  2. 高性能(推理能力极强、回答准确)

一、为什么要部署本地DeepSeek?

相信大家在使用 DeepSeek 时都会遇到这样的问题:

这是由于 DeepSeek 大火之后访问量比较大,再加上漂亮国大规模、持续的恶意攻击,导致 DeepSeek 的服务器很不稳定。所以,这个此时在本地部署一个 DeepSeek 大模型就非常有必要了。

再者说,有些数据比较敏感,咱也不想随便传到网上去,毕竟安全第一嘛。这时候,本地大模型的优势就凸显出来了。它就在你自己的电脑上运行,完全不用担心网络问题,而且数据都在本地,隐私更有保障。而且,本地大模型可以根据你的需求进行定制,想怎么用就怎么用,灵活性超强!

二、怎么部署本地大模型?

在本地部署 DeepSeek 只需要以下三步:

  1. 安装 Ollama。
  2. 部署 DeepSeek。
  3. 使用 DeepSeek:这里我们使用 ChatBox 客户端操作 DeepSeek(此步骤非必须)。

Ollama、DeepSeek 和 ChatBox 之间的关系如下:

  • Ollama 是“大管家”,负责把 DeepSeek 安装到你的电脑上。
  • DeepSeek 是“超级大脑”,住在 Ollama 搭建好的环境里,帮你做各种事情。
  • ChatBox 是“聊天工具”,让你更方便地和 DeepSeek 交流。

安装Ollama

Ollama 是一个开源的大型语言模型服务工具。它的主要作用是帮助用户快速在本地运行大模型,简化了在 Docker 容器内部署和管理大语言模型(LLM)的过程。

PS:Ollama 就是大模型届的“Docker”。

Ollama 优点如下:

  • 易于使用:即使是没有经验的用户也能轻松上手,无需开发即可直接与模型进行交互。
  • 轻量级:代码简洁,运行时占用资源少,能够在本地高效运行,不需要大量的计算资源。
  • 可扩展:支持多种模型架构,并易于添加新模型或更新现有模型,还支持热加载模型文件,无需重新启动即可切换不同的模型,具有较高的灵活性。
  • 预构建模型库:包含一系列预先训练好的大型语言模型,可用于各种任务,如文本生成、翻译、问答等,方便在本地运行大型语言模型。

Ollama 官网:https://ollama.com/

下载并安装Ollama

下载地址:https://ollama.com/

用户根据自己的操作系统选择对应的安装包,然后安装 Ollama 软件即可。

安装完成之后,你的电脑上就会有这样一个 Ollama 应用:

点击应用就会运行 Ollama,此时在你电脑状态栏就可以看到 Ollama 的小图标,测试 Ollama 有没有安装成功,使用命令窗口输入“ollama -v”指令,能够正常响应并显示 Ollama 版本号就说明安装成功了,如下图所示:

部署DeepSeek

Ollama 支持大模型列表:https://ollama.com/library

选择 DeepSeek 大模型版本,如下图所示:

DeepSeek版本介绍

模型参数规模

典型用途

CPU 建议

GPU 建议

内存建议 (RAM)

磁盘空间建议

适用场景

1.5b (15亿)

小型推理、轻量级任务

4核以上 (Intel i5 / AMD Ryzen 5)

可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存)

8GB

10GB 以上 SSD

小型 NLP 任务、文本生成、简单分类

7b (70亿)

中等推理、通用任务

6核以上 (Intel i7 / AMD Ryzen 7)

中端 GPU (如 NVIDIA RTX 3060, 12GB 显存)

16GB

20GB 以上 SSD

中等规模 NLP、对话系统、文本分析

14b (140亿)

中大型推理、复杂任务

8核以上 (Intel i9 / AMD Ryzen 9)

高端 GPU (如 NVIDIA RTX 3090, 24GB 显存)

32GB

50GB 以上 SSD

复杂 NLP、多轮对话、知识问答

32b (320亿)

大型推理、高性能任务

12核以上 (Intel Xeon / AMD Threadripper)

高性能 GPU (如 NVIDIA A100, 40GB 显存)

64GB

100GB 以上 SSD

大规模 NLP、多模态任务、研究用途

70b (700亿)

超大规模推理、研究任务

16核以上 (服务器级 CPU)

多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存)

128GB

200GB 以上 SSD

超大规模模型、研究、企业级应用

671b (6710亿)

超大规模训练、企业级任务

服务器级 CPU (如 AMD EPYC / Intel Xeon)

多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存)

256GB 或更高

1TB 以上 NVMe SSD

超大规模训练、企业级 AI 平台

例如,安装并运行 DeepSeek:ollama run deepseek-r1:1.5b

使用DeepSeek

这里我们使用 ChatBox 调用 DeepSeek 进行交互,ChatBox 就是一个前端工具,用于方便的对接各种大模型(其中包括 DeepSeek),并且它支持跨平台,更直观易用。

ChatBox 官网地址:https://chatboxai.app/zh

点击下载按钮获取 ChatBox 安装包:

安装完 Chatbox 之后就是配置 DeepSeek 到 Chatbox 了,如下界面所示:

使用 DeepSeek,如下图所示:

三、扩展知识:本地DeepSeek集成Idea

安装CodeGPT插件

配置Ollama

Ollama API 默认调用端口号:11434

检查相应的配置,如下所示:

使用Ollama

四、优缺点分析

本地大模型的优缺点分析说完部署,我们来分析一下本地大模型的优缺点,好让大家心里有个数。

优点

  • 隐私性高:数据都在本地,不用担心泄露问题,对于一些敏感数据处理来说,这是最大的优势。
  • 稳定性强:不受网络影响,只要电脑不坏,模型就能稳定运行,不用担心中途卡顿或者断线。
  • 可定制性强:可以根据自己的需求进行调整和优化,想让它做什么功能就做什么功能,灵活性很高。

缺点

  • 硬件要求高:大模型对电脑的性能要求不低,如果电脑配置不够,可能会运行很卡,甚至跑不起来。
  • 部署复杂:对于小白来说,一开始可能会觉得有点复杂,需要安装各种东西,还得配置参数,不过只要按照教程来,其实也没那么难。
  • 维护成本高:如果模型出了问题,可能需要自己去排查和解决,不像在线工具,有问题直接找客服就行。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
小白也能看懂的DeepSeek-R1本地部署指南
春节期间,Deepseek以其卓越性能赢得众多技术爱好者的关注。用户评价褒贬不一,但国际巨头的震惊足以证明其非凡之处。若你想在本地部署该模型,探索其强大功能,以下指南将为你提供详细指导。本文将介绍Windows和Mac双平台的部署流程。
全栈若城
2025/02/08
58.4K2
小白也能看懂的DeepSeek-R1本地部署指南
小白也能看懂的DeepSeek-R1本地部署指南
春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是 windows 和 mac 双平台的部署。废话不多说,现在开始和大家一起部署。
徐建国
2025/02/06
53.4K5
小白也能看懂的DeepSeek-R1本地部署指南
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
最近 DeepSeek 大模型 AI 火遍全网,我也忍不住去了解了一番。尝试在本地部署后,发现整个过程非常简单,于是决定记录下来,分享给大家。本文将以最基础的方式演示如何部署,无需使用 Docker 容器,也不需要“魔法上网”,即使是计算机小白也能按照步骤轻松完成。
后端码匠
2025/02/06
3.2K0
大模型系列:Win10环境下部署DeepSeek图文教程
DeepSeek作为国内目前最火的AI技术,相信许多互联网爱好者都有所了解,大家可以通过DeepSeek官网进行体验访问,不过比较纠结的是大家估计都遇到过访问超时的情况。
小明互联网技术分享社区
2025/02/10
1.7K0
大模型系列:Win10环境下部署DeepSeek图文教程
DeepSeek V3、DeepSeek R1 、 DeepSeekLLM版本区别
Linux运维技术之路
2025/02/08
12.8K0
DeepSeek V3、DeepSeek R1 、 DeepSeekLLM版本区别
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
相信大家现在对DeepSeek这个国产AI已经并不陌生了,并且大部分的朋友已经开始用上了DeepSeek。
蒙奇D索隆
2025/02/09
7492
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
一文读懂DeepSeek-R1本地部署配置要求(建议收藏)
发布把AI带回家:DeepSeek-R1本地部署指南!再也不怕宕机了!!后,有不少读者私信询问本地部署DeepSeek-R1的电脑配置要求。
一臻AI
2025/03/06
1.7K0
一文读懂DeepSeek-R1本地部署配置要求(建议收藏)
DeepSeek-R1本地部署如何选择适合你的版本?看这里
如果你正在考虑将DeepSeek-R1部署到本地服务器上,了解每种类型的硬件需求是非常重要的。DeepSeek-R1是一个非常强大的语言模型,它有多个不同的版本,每个版本在计算资源和硬件要求上都有不同的需求。本文将帮助你理解每个版本的参数、所需硬件以及如何根据自己的需求选择合适的类型。
凯哥Java
2025/02/11
6.3K0
DeepSeek-R1本地部署如何选择适合你的版本?看这里
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。
久绊A
2025/02/20
2.4K0
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
DeepSeek 是国内顶尖 AI 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。
烟雨平生
2025/02/10
7.1K0
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署
自问世以来,DeepSeek迅速成为全球瞩目的焦点,这不仅归功于其卓越的技术表现,更在于其开源的开放策略和极具竞争力的低成本优势,从而在全球范围内掀起了一股AI应用的新浪潮。
七条猫
2025/02/14
1.2K0
DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署
DeepSeek-R1模型本地部署如何选择版本(硬件要求与适用场景)
DeepSeek-R1采用MoE架构,支持从1.5B到1.8T参数的弹性部署,具备高效推理和低显存占用优势。文章详细列出不同版本的硬件需求,包括CPU、GPU、存储和内存配置,并针对轻量级、企业级和科研级部署给出具体适用场景。同时,提供量化加速、显存优化和分布式部署等性能优化建议.
码农编程进阶笔记
2025/04/27
4790
DeepSeek-R1模型本地部署如何选择版本(硬件要求与适用场景)
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
DeepSeek现在流行度正盛,今年的机器学习就用他作为一个开端,开整。 本文是基于百度aistudio的在线课程《DeepSeek从云端模型部署到应用开发》。
IT从业者张某某
2025/03/15
1310
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
本地部署DeepSeek-R1大模型
想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟
全栈开发日记
2025/02/10
1.1K0
本地部署DeepSeek-R1大模型
K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定
最近一年我都在依赖大模型辅助工作,比如 DeepSeek、豆包、Qwen等等。线上大模型确实方便,敲几个字就能生成文案、写代码、做表格,极大提高了效率。但对于企业来说:公司内部数据敏感、使用外部大模型会有数据泄露的风险。
Rainbond开源
2025/04/17
2610
自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
在人工智能飞速发展的今天,大语言模型的应用越来越广泛。DeepSeek 作为近期爆火的一款大语言模型,受到了众多开发者的青睐。
测试开发技术
2025/02/12
1.6K0
自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
免费榜单双双登顶,超越了长期占据榜单的 GPT,这一突破性进展引发了投资者的广泛关注,甚至导致英伟达股价大幅下跌。从那时起,
陈明勇
2025/02/01
4.6K13
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
DeepSeek 隐私政策中提到了关于用户输入信息收集的条款,无论你输入什么文本,以及上传什么文件都会被第三方机构所收集,所以如果是在进行相关的项目研究或者实验进展分析的时候,就很有必要对数据进行隐私保护,且本地部署是支持离线的
DARLING Zero two
2025/02/02
5.7K0
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
Linux下搭建本地deepseek(附文档下载)
简单测试了一下在linux上搭建本地deepseek,需要用到:linux、ollama、chatboxai
用户5892232
2025/03/05
9780
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配推荐
随着人工智能技术的快速发展,大语言模型已成为推动产业智能化的重要工具。在这一领域,DeepSeek系列模型凭借其创新的架构和高效的性能,成为众多开发者和企业关注的焦点。而其中的R1-1.5B模型,作为家族中参数量最小、资源需求最低的版本,更是备受青睐。下面就让我们来看看DeepSeek各模型之间的性能差异、应用场景,以及部署R1-1.5B模型时所需的云服务器配置。
云惑雨问
2025/03/24
2510
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配推荐
推荐阅读
小白也能看懂的DeepSeek-R1本地部署指南
58.4K2
小白也能看懂的DeepSeek-R1本地部署指南
53.4K5
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
3.2K0
大模型系列:Win10环境下部署DeepSeek图文教程
1.7K0
DeepSeek V3、DeepSeek R1 、 DeepSeekLLM版本区别
12.8K0
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
7492
一文读懂DeepSeek-R1本地部署配置要求(建议收藏)
1.7K0
DeepSeek-R1本地部署如何选择适合你的版本?看这里
6.3K0
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi
2.4K0
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
7.1K0
DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署
1.2K0
DeepSeek-R1模型本地部署如何选择版本(硬件要求与适用场景)
4790
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
1310
本地部署DeepSeek-R1大模型
1.1K0
K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定
2610
自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
1.6K0
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
4.6K13
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
5.7K0
Linux下搭建本地deepseek(附文档下载)
9780
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配推荐
2510
相关推荐
小白也能看懂的DeepSeek-R1本地部署指南
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档