DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
无奈,在使用时候deepseek总是提示服务器繁忙,请稍后再试。
本文将介绍如何通过简单 3 步在本地部署 DeepSeek 大模型,让你能够轻松体验这一强大的 AI 工具。
部署方案:Ollama + DeepSeek-R1 + Open WebUI
笔者的电脑硬件配置如下:
系统: Window11
CPU: 13th i7-13700KF
内存: 32G
显卡:Nvidia GeForce RTX 4070Ti
可以运行大模型deepseek-r1的哪个版本的大模型?
问deepseek得到的回答:
最佳选择:优先尝试 DeepSeek-R1-7B 4-bit量化版,平衡速度和性能;若需要更高精度,可测试 DeepSeek-R1-13B 4-bit量化版(需确保显存无其他占用)。建议关注官方发布的轻量化版本或社区优化方案(如GPTQ)。
Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。
提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
Ollama官网: https://ollama.com/
Ollama GitHub仓库:https://github.com/ollama/ollama
Ollama下载地址:https://ollama.com/download
支持macOS、Linux、Windows系统,根据自己的系统,下载安装包:
Download for windows
windows系统下安装也比较方便,双击打开 install
安装完成没有提示,我们打开一个终端,本文以Windows PowerShell为例,大家也可以使用其他的:
现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。
ollama run qwen
安装成功,随便问几个问题。
理论上就安装完成了,可以只在命令行中使用大模型了。
可以不用改,如果C盘空间不够用,建议修改。
可以看到,系统正在下载qwen的模型(并保存在C盘,C:\Users<username>.ollama\models 如果想更改默认路径,可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务。)
setx OLLAMA_MODELS "D:\ollama\model"
https://ollama.com/library/deepseek-r1
DeepSeek-R1模型有多个版本,可以根据需要选择不同版本,例如 ollama run deepseek-r1:671b,详情如下(模型参数越大,需要配置越高):
在DeepSeek-R1系列中,还有1.5B、7B、8B、14B、32B、70B、671B等不同参数规模的型号。这些不同规模的模型在模型能力、资源需求和应用场景上有所不同。
ollama run deepseek-r1:1.5b 【电脑配置低的可以运行此版本,根据文件大小和网络情况,下载时间也不确定】
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b
我这里选择运行7b(70亿参数)
省流版命令: ollama list
和 ollama rm [模型名称] 。
ollama create [Modelfile路径]
ollama show [模型名称]
/show
(在会话界面中使用)ollama list
ollama ls
ollama pull [模型名称]
ollama push [模型名称]
ollama cp [原模型名称] [新模型名称]
ollama rm [模型名称]
ollama run [模型名称]
/load <model>
/save <model>
/clear
/bye
ollama help [命令名称]
ollama --help
ollama version
ollama -v
ollama --version
/?shortcuts
/set 参数名 参数值
Open WebUI是一个用于在本地运行大型语言模型(LLM)的开源Web界面。
Open WebUI是在docker中安装的,所以要先安装docker。
打开控制面板,在程序与功能页面选择启用或Windows功能
然后,重启计算机。
打开 powershell,以管理员的身份启动命令窗口,输入
wsl --install
如果不是已管理员身份启动则会报错:请求的操作需要提升
然后再次重启电脑。
点击下载链接:https://docs.docker.com/desktop/install/windows-install/
开源地址: https://github.com/open-webui/open-webui
参考: https://github.com/open-webui/open-webui?tab=readme-ov-file#installation-with-default-configuration
可以看到,如果你的Ollama和Open WebUI在同一台主机,那使用下面显示的这一行命令就可以在本地快速进行部署:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
由于我的电脑有GPU
此时我使用的是:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
现在我们打开终端,比如powershell,然后输入docker,回车
然后将上边在docker中部署Open WebUI的命令复制后粘贴到终端中,回车。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
如果您仅使用 OpenAI API,请使用以下命令:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果仅适用于 CPU,不使用 GPU,请改用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
安装完成后,在Docker Desktop中可以看到Open WebUI的web界面地址为:http://localhost:3000
或者内网IP+端口,这样局域网的其他人也可以访问到,甚至是通过内网穿透,让其他人也可以访问。
注册账号点击 sign up
登录
点击右上角的设置,可以修改当前界面的语言为简体中文:然后点击保存即可。
点击上方选择一个模型旁边的加号+可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,接下来就可以愉快的跟ai聊天了!
从环境准备到获取模型文件,再到加载并运行模型,整个过程清晰明了,适合初学者和有一定经验的开发者。
使用Ollama在本地搭建DeepSeek具有充分利用本地算力、保护数据隐私、便捷更新模型等优点,但同时也存在硬件要求高、技术门槛高、部署过程繁琐等缺点。用户在选择是否进行本地部署时,应根据自己的实际需求和技术水平进行权衡。
写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧! 😊
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。