部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi

Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi

原创
作者头像
久绊A
发布于 2025-02-20 15:12:09
发布于 2025-02-20 15:12:09
2.6K024
代码可运行
举报
运行总次数:24
代码可运行

前言

近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。

在这样的背景下,本地部署DeepSeek模型的需求也日益增加。本地部署不仅可以避免网络延迟数据隐私问题,还能根据用户需求进行定制化优化。结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio AI等工具,用户可以轻松实现模型的本地化部署,并通过可视化面板进行高效交互。

本文将详细介绍如何在本地环境中部署DeepSeek模型,并结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio实现高效、便捷的模型交互。无论你是技术爱好者、开发者,还是企业用户,本文都将为你提供清晰的部署指南,帮助你快速上手并充分利用DeepSeek的强大功能。

Ollama 介绍

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。其主要特点包括:

本地部署与离线使用:支持在本地计算机上运行,无需依赖云服务,确保数据隐私。

跨平台支持:兼容 Windows、macOS 和 Linux 系统。

丰富的模型库:提供多种预训练模型(如 Llama、DeepSeek 等),并支持用户上传自己的模型。

易于集成和使用:提供命令行工具(CLI)、Python SDKRESTful API,方便与其他项目和服务集成。

性能优化:支持多 GPU 并行推理加速,能够有效管理内存和计算资源。

社区驱动:开源项目,拥有活跃的社区支持。

Ollama 安装

打开 Ollama 官方下载页面:https://ollama.com/download

在页面中找到 Windows 版本的下载链接,点击下载安装程序(通常是一个 .exe 文件)。

下载完成后,双击下载的 .exe 文件启动安装程序。

按照安装向导的提示进行操作,包括选择安装路径、接受许可协议等。

点击“下一步”完成安装。

如何卸载

打开控制面板 ——> 卸载程序 ——>找到删除右键

注意(如果安装D盘看):

将Ollama安装到D盘可以释放C盘空间,避免系统盘拥堵,同时提升性能、增强数据安全性,并优化磁盘管理。

下载之后如果点击直接安装默认会安装在C盘。 在下载文件所在文件夹中,右键在终端打开。

输入以下命令,指定安装路径(例如安装到 D:\Ollama):

  • /DIR 参数用于指定安装路径。
  • 确保路径格式正确,路径中不要包含空格或特殊字符。
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
.\OllamaSetup.exe /DIR=D:\Deekseep\Ollama
环境变量

此电脑 ——> 属性 ——>高级系统设置 ——> 环境变量

Path ——> 编辑 ——> 新建 ——> 路径

Ollama 常用命令

启动 Ollama

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama serve
  • 功能:启动 Ollama 服务。

创建模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama create <模型名>
  • 功能:从 Modelfile 创建一个自定义模型。

显示模型信息

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama show <模型名>
  • 功能:显示指定模型的详细信息。

运行模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama run <模型名>
  • 功能:下载(如果尚未下载)并运行指定模型。

停止运行中的模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama stop <模型名>
  • 功能:停止正在运行的模型。

从模型库下载模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama pull <模型名>
  • 功能:从 Ollama 模型库下载指定模型。

将模型推送到模型库

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama push <模型名>
  • 功能:将本地模型推送到模型库(需要权限)。

列出所有模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama list
  • 功能:显示本地已下载的所有模型。

列出正在运行的模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama ps
  • 功能:显示当前正在运行的模型。

复制模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama cp <源模型名> <目标模型名>
  • 功能:复制一个模型到新的名称。

删除模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama rm <模型名>
  • 功能:删除本地指定的模型。

查看帮助信息

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama help
  • 功能:显示帮助信息,提供关于所有命令的详细说明。

查看版本信息

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama --version
  • 功能:显示当前 Ollama 的版本信息。

deepseek-r1模型下载

地址:https://ollama.com/search

deepseek-r1模型比较

版本

适用场景

资源需求

性能表现

1.5B

轻量级任务(短文本生成、基础问答)

资源消耗低,适合低配设备

生成质量和复杂性有限

7B/8B

中等复杂度任务(文案生成、表格处理)

需要中等硬件配置,如 RTX 3060 12G

性能与资源消耗平衡,适合中等任务

14B

复杂任务(长文本生成、数据分析)

需要较高硬件配置,如 A100

处理复杂任务能力强,适合专业场景

32B/70B

超大规模任务(语言建模、大规模训练)

需要高显存(建议≥24G)或优化后的量化版本

性能逼近更大模型,适合复杂推理

构建可视化工具

open-webui(网页版,局域网可访问)

Open-WebUI 推荐使用 Python 3.11,更高版本可能存在兼容性问题。

如果未安装 Python,请从 Python 官网下载并安装 Python 3.11。

在终端或命令提示符中运行以下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install open-webui

安装完成后,可以通过以下命令启动 Open-WebUI:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
open-webui serve

启动后,Open-WebUI 默认运行在 http://localhost:8080,可以通过浏览器访问该地址。

可以在设置更改,相关内容

Chatbox AI(软件版)

访问Chatbox AI官网:前往Chatbox AI官网

下载安装包:根据你的操作系统(Windows、macOS、Linux等)选择对应的安装包。

安装程序:双击下载的安装文件,按照提示完成安装。

选择语言和主题:安装完成后,启动Chatbox AI客户端,可在设置菜单中选择语言和主题。

配置API:如果需要使用特定的AI模型,可在“API配置”中输入相应的API密钥或选择预设的模型版本。

连接本地模型(如Ollama)

确保已安装并运行Ollama。

在Chatbox AI中进入设置,选择“Ollama”作为模型提供方。

设置API地址为http://localhost:11434,并选择已下载的模型(如DeepSeek)

Cherry Studio(软件版)

访问 Cherry Studio 官方网站 https://cherry-ai.com/download,根据您的操作系统(Windows、macOS 或 Linux)选择对应版本的安装包

下载完成后,双击安装包运行。

按照安装向导提示选择安装路径和语言(默认为中文)。

完成安装后,启动客户端并同意用户协议即可进入主界面

配置本地模型(如 DeepSeek)

安装本地模型(如通过 Ollama 安装 DeepSeek 模型)。

在 Cherry Studio 中点击左下角的“设置”按钮,进入“模型服务”页面。

找到对应的本地模型服务(如 Ollama),选择管理并配置本地模型。

配置云服务(如硅基流动)

注册硅基流动账号并创建 API 密钥。

在 Cherry Studio 的设置中,找到对应的云服务(如硅基流动),将 API 密钥粘贴到指定位置。

添加并检查模型(如 DeepSeek-R1 或 DeepSeek-V3),完成配置

如何使用

鼠标右键,打开终端

输入 ollama serve 开启 ollama

(可选)网页版open-webui

输入 open-webui serve 不要关掉终端,等一会打开网页,http://localhost:8080

(可选)软件版Chatbox AI,打开软件,运行

(可选)软件版Cherry Studio,打开软件,运行

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
使用Ollama部署deepseek大模型
我的显卡在Windows电脑上面 所以使用Windows的安装方式去安装 若你的显卡是在Linux上面 可以使用如下命令安装
小陈运维
2025/02/04
2.2K0
使用Ollama部署deepseek大模型
在windows主机本地快速部署使用deepseek-r1大模型
一台配备 Windows 操作系统、12GB 或以上显存的英伟达显卡、8GB 或以上内存,并能连接互联网的电脑可以继续阅读以下内容。
AI粉嫩特工队
2025/05/15
1390
在windows主机本地快速部署使用deepseek-r1大模型
deepseek本地部署简要教程
网址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
吴晓阳
2025/02/13
7180
deepseek本地部署简要教程
macOS 运行 DeepSeek 大模型!看看 Ollama 和 Open WebUI如何配合
2025年1月20日,杭州的一家公司开源推理模型 DeepSeek-R1,一经推出就震撼了世界。
Mintimate
2025/02/17
1.4K1
macOS 运行 DeepSeek 大模型!看看 Ollama 和 Open WebUI如何配合
本地部署AI大模型DeepSeek
在刚刚过去的春节假期,AI界可一点都不平静,一款来自中国的AI应用 DeepSeek,如同横空出世的黑马,迅速在全球范围内掀起了波澜。先是在美区App Store免费榜中力压ChatGPT,成功登顶,成为无数用户追捧的对象;而后又引发了美国科技股的剧烈震荡,英伟达市值一夜之间蒸发数千亿美元,整个科技板块都因之而颤抖。这一系列令人咋舌的事件,让DeepSeek这个名字,瞬间成为了全球AI领域的焦点。
wangmcn
2025/02/10
3440
本地部署AI大模型DeepSeek
使用Ollama部署deepseek大模型
连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
小陈运维
2025/01/26
2.9K0
windows本地部署DeepSeek-R1模型
最近,在学习之余,我关注到了一个备受瞩目的热点话题——deepseek。这个横空出世的AI模型不仅效果超越了同期顶级AI,离谱的是,参数量不增反降的情况下,性能却大幅提升。最重要的是,deepseek是一个开源模型,这意味着人人都能享受到AI的强大力量。国内科技爱好者们对此激动不已,纷纷热议这一突破性进展。
柳神
2025/02/09
6990
windows本地部署DeepSeek-R1模型
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
5K0
简单3步部署本地国产大模型DeepSeek大模型
Ollama 安装与使用指南笔记
在探索大模型的道路上,Ollama 作为一款开源项目为我们提供了很大的便利。下面将详细介绍它的安装与使用,并补充一些常见问题及解决方法。
ceagle
2024/12/30
4.8K0
在 TKE 上部署 AI 大模型
本文介绍如何在 TKE 上部署 AI 大模型,以 DeepSeek-R1 为例,使用 Ollama、vLLM 或 SGLang 运行大模型并暴露 API,然后使用 OpenWebUI 提供交互界面。
imroc
2025/02/20
3670
在 TKE 上部署 AI 大模型
使用 Ollama 自建大模型并对接第三方平台二次分发盈利
随着AI不断的发展,各大厂商都公开了很多模型,那么我们自己是否可以在本地运行起这些模型呢,答案是肯定的!今天带给大家3分钟使用Ollama快速搭建环境运行本地大模型,支持主流的Lama 3, Phi 3, Mistral, Gemma等等大模型,同时支持主流操作系统,不管你是Mac还是Linux更或者是Windows,哪怕你没有强大的GPU,也可以通过CPU进行体验学习。
Lcry
2024/07/17
3K0
使用 Ollama 自建大模型并对接第三方平台二次分发盈利
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
6.9K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
本篇文章介绍在window系统下,安装Ollama并且安装gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等大模型的教程,实现类似免费ChatGPT的web界面
星哥玩云
2024/05/14
6.3K0
本机部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
RockyLinux9.5下使用ollama搭建本地AI大模型DeepSeek
先使用下载 https://ollama.com/download/ollama-linux-amd64.tgz 然后修改https://ollama.com/install.sh 脚本中一小段,进行半自动安装ollama
yuanfan2012
2025/02/08
5200
RockyLinux9.5下使用ollama搭建本地AI大模型DeepSeek
DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署
自问世以来,DeepSeek迅速成为全球瞩目的焦点,这不仅归功于其卓越的技术表现,更在于其开源的开放策略和极具竞争力的低成本优势,从而在全球范围内掀起了一股AI应用的新浪潮。
七条猫
2025/02/14
1.2K0
DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
在人工智能领域,大型语言模型(LLM)正变得越来越普及,许多用户希望能够在本地环境中运行这些模型,以确保数据隐私、定制化需求或离线工作的便捷性。DeepSeek-R1 是近期备受关注的高性能 AI 推理模型,专注于数学、编程和自然语言推理任务。与此同时,Ollama 作为一款强大的工具,帮助用户在本地环境中轻松部署和管理大型语言模型。
一键难忘
2025/02/04
3.3K0
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
部署deepseek与简单可视化对话
GPU : NVIDIA GeForce RTX 4050 Laptop GPU
SDLearn
2025/02/07
4360
部署deepseek与简单可视化对话
本地部署阉割版DeepSeek或其他大模型的方法
  在2025年的年初,DeepSeek横空出世,很多人都第一时间在电脑中本地部署了它(因为官网确实太卡了,经常服务器超时);我当初也部署了一个,但是部署之后发现很鸡肋:因为只要是在自己电脑上部署的DeepSeek,那么大家肯定选择的就不是其参数数量最多的671b版本(因为这个版本对硬件的要求实在是太高了);而除了这个版本之外,用其他几个参数版本部署的所谓本地DeepSeek,都不是满血版,而是阉割版——这个阉割版,除了会think一下显得很高级之外,感觉完全没有通义等其他免费浏览器直接访问的大模型好用。
疯狂学习GIS
2025/03/18
1670
本地部署阉割版DeepSeek或其他大模型的方法
【零门槛教程】3分钟使用腾讯云Lighthouse轻量应用服务器部署DeepSeek R1模型
在人工智能技术爆发式发展的今天,DeepSeek凭借其强大的自然语言处理能力成为开发者新宠。本文将手把手教学如何使用腾讯云Lighthouse轻量应用服务器部署DeepSeek。
宁子
2025/03/21
2290
【零门槛教程】3分钟使用腾讯云Lighthouse轻量应用服务器部署DeepSeek R1模型
自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
在人工智能飞速发展的今天,大语言模型的应用越来越广泛。DeepSeek 作为近期爆火的一款大语言模型,受到了众多开发者的青睐。
测试开发技术
2025/02/12
1.7K0
自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
推荐阅读
相关推荐
使用Ollama部署deepseek大模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验