最近随着DeepSeek的爆火,好多同学私信询问我是否有简单强势的DeepSeek部署操作呢? 我的回答是有的兄弟有的,我这里有三种部署方案,大家可以参考下,分别是自动化部署、本地部署、可视化UI界面部署
进入到官网找到下载按钮 或者点击下方的按钮进行软件的下载 https://file-cdn-deepseek.fanqiesoft.cn/deepseek/deepseek_28366_st.exe
下载好了之后在左侧我们进行一个模型的选择操作以及下载的路径操作
这里的模型还挺多的,基本上涵盖了世面上的所有DeepSeek模型 并且这里还有温馨提示,他会根据你当前的设备推荐一款最适合的模型让你下载,并且每个模型的下方都有具体的信息(文件大小、CPU、内存相关的属性)
选择好对应的模型和存储的路径,我们直接点击右边的立即安装DeepSeek就行了
进入到安装后,这里是会有进度条的,我们后续就不用管了,让程序后台运行安装就行了,他的这个速度还是蛮快的,我选择的是4.36GB的那个模型,大概等了5分钟左右就好了,这个完全是自动化部署,我觉得功能还是挺逆天的
等我们的资源下载好了之后,这里会出现一个弹窗,是一个可视化的对话界面
我们简单的测试了下,效果生成的速度快,没有丝毫卡顿,并且答案准确性高
并且我们在这里还能进行prompt的设置,打造一个独一无二的ai
ollama -v
查看是否安装成功,输入完命令出现了版本号的话就说明你安装成功了
接下来我们进行部署DeepSeek R1模型的操作
模型 | 参数 (B) | VRAM 要求 (GB) | 推荐 GPU |
---|---|---|---|
DeepSeek - R1 - Zero | 671B | ~1,342 GB | 多 GPU 配置(例如,NVIDIA A100 80GB x16) |
DeepSeek - R1 | 671B | ~1,342 GB | 多 GPU 配置(例如,NVIDIA A100 80GB x16) |
DeepSeek - R1 - Distill - Qwen 1.5B | 1.5B | ~0.75 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Qwen 7B | 7B | ~3.5 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Llama 8B | 8B | ~4 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Qwen 14B | 14B | ~7 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek - R1 - Distill - Qwen 32B | 32B | ~16 GB | NVIDIA RTX 4090 24GB |
DeepSeek - R1 - Distill - Llama 70B | 70B | ~35 GB | 多 GPU 配置(例如,NVIDIA RTX 4090 x2) |
/bye
来退出对话
ollama list
重新查看我们已经下载好了的模型,那么我们可以发现这里的R1 7B是我们刚刚下载好的模型
ollama run deepseek-r1:latest
我们就能重新进入到对话了,这里我们简单进行对话下,可以发现效果还是挺ok的
olloma list
可以看到我们下载的模型,然后将我们的R1模型名称进行复制,然后输入命令ollama rm deepseek-r1:latest
然后就可以将我们本地的删除了
只有进行本地化部署才能进一步的进行可视化UI界面的部署操作
这里其实是可以自定义模型的,但是这里我就不过多进行叙述了,因为我们上面这个就够用了。 这个自定义的话就是你让这个deepseek带入一个角色,你让他是一个医生,然后他就会以医生的视角回答你所询问的问题
那么在平常的代码问题,我们对可以询问我们本地部署的这个deepseek,十分方便呢
感觉这个deepseek的话对图片的分析还是差点意思
三种方法体验下来,新手小白的话我建议使用第一种方法,因为不需要什么专业知识,也减少了试错成本,第二种本地终端部署的操作,等待时间久,并且你得一直看在旁边,第三种的话是基于第二种方法的。好了今天的体验就到这里了,强烈推荐第一种自动化部署的操作,省时省力。 感兴趣的兄弟赶紧来种草吧 https://file-cdn-deepseek.fanqiesoft.cn/deepseek/deepseek_28366_st.exe