Loading [MathJax]/jax/input/TeX/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Linux服务器卸载Ollama的步骤

Linux服务器卸载Ollama的步骤

作者头像
丹牛Daniel
发布于 2024-08-11 00:27:43
发布于 2024-08-11 00:27:43
3.4K12
代码可运行
举报
运行总次数:2
代码可运行

要从服务器上卸载Ollama,可以按照以下步骤进行操作:

首先需要停止正在运行的Ollama服务。可以通过以下命令来实现:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl stop ollama.service 

这一步确保了在继续下一步之前,Ollama服务已经完全停止。

接下来,需要从系统的bin目录中删除Ollama的可执行文件。通常这些文件位于/usr/local/bin/usr/bin, 或 /bin目录下。可以使用如下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo rm $(which ollama)

这一步将移除所有与Ollama相关的可执行文件。

如果有下载并安装了Ollama的模型,还需要删除这些模型以及相关的用户和组。具体操作如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo rm -r /usr/share/ollama/
sudo userdel ollama
sudo groupdel ollama

这样可以确保所有的数据和配置都被彻底清除。

为了防止未来再次自动启动,可以禁用Ollama的服务单元文件。编辑/etc/systemd/system/ollama.service 文件,将其设置为非自动启动状态:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl disable ollama.service 

这一步可以避免将来意外启动。

通过以上步骤,可以完全卸载Ollama及其相关组件,确保系统干净整洁。如果在执行过程中遇到任何问题,请参考官方文档或社区支持获取进一步帮助。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-08-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
可以,大佬,互粉一下
可以,大佬,互粉一下
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:https://ollama.com/
汀丶人工智能
2024/08/17
1.6K0
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
使用systemd在Boot上启动Linux服务
systemd是最初由Red Hat Linux团队开发的Linux系统工具。它包括许多功能,包括用于启动和管理系统进程的引导系统。它目前是大多数Linux发行版的默认初始化系统。许多常用的软件工具(如SSH和Apache)都附带了systemd服务。
陈树丶
2018/08/15
2.2K0
Ollama 使用指南:Linux、Windows 和 macOS
Ollama 是一个开源平台,用于部署和运行大型语言模型。它提供了一种在本地环境中运行语言模型的能力,使得用户可以在本地安全地与这些模型进行交互,而无需将数据发送到云端。
井九
2024/10/12
7.8K0
Ollama 使用指南:Linux、Windows 和 macOS
linux离线安装docker20.10.7 版本(亲测有效)
为什么复制到这个 /usr/bin/ 里面,因为docker 文件夹下都是docker 的命令,也就是可执行文件,也就是我们操作docker 的指令。
一写代码就开心
2024/01/11
7.1K0
linux离线安装docker20.10.7 版本(亲测有效)
Ollama 安装与使用指南笔记
在探索大模型的道路上,Ollama 作为一款开源项目为我们提供了很大的便利。下面将详细介绍它的安装与使用,并补充一些常见问题及解决方法。
ceagle
2024/12/30
5K0
如何在Debian 8上设置VNC服务器
VNC(虚拟网络计算)是一种使用户能够连接远程计算机的图形桌面并与之交互的系统。它可以通过网络传输屏幕更新,键盘和鼠标事件。
谢鸢
2018/10/22
4.7K0
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(Backend as a Service,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到高效生产的快车道。其设计旨在打破技术壁垒,让非技术背景的用户也能轻松参与至AI应用的构思与数据运营之中,共同塑造智能未来。
汀丶人工智能
2024/08/17
3K0
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
Linux服务器部署Web版VSCode,在window下使用浏览器在linux环境下编写代码
最近尝试了一下在Linux服务器上部署VSCode,也就是code-server,然后在windows电脑上通过浏览器访问打开在线编辑器编写代码,以下记录一下部署过程。
用户1174387
2024/03/28
7920
Linux服务器部署Web版VSCode,在window下使用浏览器在linux环境下编写代码
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
7.2K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
将服务注册为Linux Systemctl 启动项 – /usr/local/bin/ 注册为服务器的命令
说明:Description 是服务的描述,After 指定服务启动的时间点,Type 指定程序的启动方式,User 指定程序运行的用户,ExecStart 指定程序的启动命令,WantedBy 指定服务启动的级别。我们只关注这ExecStart就够了。
收心
2023/06/18
1.9K0
将服务注册为Linux Systemctl 启动项 – /usr/local/bin/ 注册为服务器的命令
Prometheus升级指南
Prometheus是一个基于Metrics的监控系统 ,与Kubernetes同属CNCF(Cloud Native Computing Foundation),它已经成为炙手可热的Kubernetes生态圈中的核心监控系统,越来越多的项目(如Kubernetes和etcd等 )都加入了丰富的Prom原生支持,从侧面体现了社区对它的认可。 Prometheus 2.0带来了许多变化和改进,例如新的时间序列数据库,更好的资源使用,新的警报配置格式以及更好的Alertmanager发现。
圣人惠好可爱
2018/07/31
6.5K0
Prometheus升级指南
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
我们经常为海量文档找不到关键内容而烦恼,那么可以使用AI 帮忙轻松检索个人笔记,并且还能优化我们的文章,以我们的风格生成文章。今天,我来教你用 Ollama 和 MaxKB 搭建一个属于自己的 AI 知识库,让你的知识随时为你服务. Ollama 作为轻量级模型管理平台,可以快速安装、运行多种 AI 模型,如 DeepSeek-R1、Llama3 等。本文将手把手教你如何:
神的孩子都在歌唱
2025/03/29
1.1K0
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
Linux系统中安装redis+redis后台启动+常见相关配置
修改配置文件:编辑redis.conf文件,将daemonize选项设置为yes,然后正常启动Redis服务器,它会自动在后台运行。例如:
苏泽
2024/03/03
5.3K0
Linux系统中安装redis+redis后台启动+常见相关配置
【Linux】自启动配置
自启动配置是确保系统服务在启动时能够自动运行的关键步骤。在Linux系统中,systemd是一个先进的初始化系统和服务管理器,它通过配置单元文件(unit files)来定义服务的启动行为,包括依赖关系和启动顺序。以下是关于自启动配置的一些关键概念和步骤:
人不走空
2024/02/21
6220
Linux服务器安装JDK、Tomcat、MySQL和一些配置
        1.将本地安装包jdk-7u71-linux-x64.tar.gz拷贝到服务器/opt/java目录
sunonzj
2022/06/21
2.5K0
Linux服务器安装JDK、Tomcat、MySQL和一些配置
如何在CentOS 7上使用Gunicorn和Nginx为Flask应用程序提供服务
在本指南中,我们将使用CentOS 7上的Flask微框架设置一个简单的Python应用程序。本文的大部分内容将是关于如何设置Gunicorn应用程序服务器以启动应用程序和Nginx作为前端结束反向代理。
陈树丶
2018/10/19
3.3K0
如何在CentOS 7上使用uWSGI和Nginx为Flask应用程序提供服务
在本指南中,我们将使用CentOS 7上的Flask微框架设置一个简单的Python应用程序。本文的大部分内容将是关于如何设置uWSGI应用程序服务器以启动应用程序和Nginx作为前端结束反向代理。
angel_郁
2018/10/19
2.1K0
别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南
最近最火的莫过于DeepSeek,现在网上关于 AI 模型部署的文章一抓一大把,动不动就是 “一键部署,轻松上手”、“30 分钟搭好一个本地能跑起来的大模型”。可现实是,当你真上手用 Ollama 搭建 DeepSeek 模型时,那简直就是踩坑大冒险!今天咱就来好好唠唠那些坑,帮你顺利搭建属于自己的 DeepSeek。
章为忠学架构
2025/04/04
1.2K0
别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南
如何在Linux上搭建Terraria 游戏服务器?
Terraria是一款二维沙盒游戏,类似于Minecraft(我的世界),允许玩家在开放的世界中探索,构建和战斗。2015年,Terraria开发者宣布支持Linux,这意味着玩家可以托管他们自己独立的Terraria服务器。
大大刺猬
2018/08/31
6.7K0
部署云服务器--(3) Linux系统用脚本方式实现Tomcat的开机自启动
此篇教程在我的电脑(deepin-generic)上是可以用的,做好脚本后重启立即生效,但是在服务器(CentOS-7.3),需要开机后等待十几分钟,原因不明啊,很迷,另外记得服务器的防火墙开了8080端口(或者你设置的tomcat的端口).
浩Coding
2019/07/02
1.7K0
部署云服务器--(3) Linux系统用脚本方式实现Tomcat的开机自启动
推荐阅读
相关推荐
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档