Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Linux服务器卸载Ollama的步骤

Linux服务器卸载Ollama的步骤

作者头像
丹牛Daniel
发布于 2024-08-11 00:27:43
发布于 2024-08-11 00:27:43
3.7K12
代码可运行
举报
运行总次数:2
代码可运行

要从服务器上卸载Ollama,可以按照以下步骤进行操作:

首先需要停止正在运行的Ollama服务。可以通过以下命令来实现:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl stop ollama.service 

这一步确保了在继续下一步之前,Ollama服务已经完全停止。

接下来,需要从系统的bin目录中删除Ollama的可执行文件。通常这些文件位于/usr/local/bin/usr/bin, 或 /bin目录下。可以使用如下命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo rm $(which ollama)

这一步将移除所有与Ollama相关的可执行文件。

如果有下载并安装了Ollama的模型,还需要删除这些模型以及相关的用户和组。具体操作如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo rm -r /usr/share/ollama/
sudo userdel ollama
sudo groupdel ollama

这样可以确保所有的数据和配置都被彻底清除。

为了防止未来再次自动启动,可以禁用Ollama的服务单元文件。编辑/etc/systemd/system/ollama.service 文件,将其设置为非自动启动状态:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl disable ollama.service 

这一步可以避免将来意外启动。

通过以上步骤,可以完全卸载Ollama及其相关组件,确保系统干净整洁。如果在执行过程中遇到任何问题,请参考官方文档或社区支持获取进一步帮助。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-08-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
可以,大佬,互粉一下
可以,大佬,互粉一下
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
我们经常为海量文档找不到关键内容而烦恼,那么可以使用AI 帮忙轻松检索个人笔记,并且还能优化我们的文章,以我们的风格生成文章。今天,我来教你用 Ollama 和 MaxKB 搭建一个属于自己的 AI 知识库,让你的知识随时为你服务. Ollama 作为轻量级模型管理平台,可以快速安装、运行多种 AI 模型,如 DeepSeek-R1、Llama3 等。本文将手把手教你如何:
神的孩子都在歌唱
2025/03/29
1.4K0
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:https://ollama.com/
汀丶人工智能
2024/08/17
1.7K0
LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
Linux服务器部署Web版VSCode,在window下使用浏览器在linux环境下编写代码
最近尝试了一下在Linux服务器上部署VSCode,也就是code-server,然后在windows电脑上通过浏览器访问打开在线编辑器编写代码,以下记录一下部署过程。
用户1174387
2024/03/28
8520
Linux服务器部署Web版VSCode,在window下使用浏览器在linux环境下编写代码
Ollama 安装与使用指南笔记
在探索大模型的道路上,Ollama 作为一款开源项目为我们提供了很大的便利。下面将详细介绍它的安装与使用,并补充一些常见问题及解决方法。
ceagle
2024/12/30
5.1K0
别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南
最近最火的莫过于DeepSeek,现在网上关于 AI 模型部署的文章一抓一大把,动不动就是 “一键部署,轻松上手”、“30 分钟搭好一个本地能跑起来的大模型”。可现实是,当你真上手用 Ollama 搭建 DeepSeek 模型时,那简直就是踩坑大冒险!今天咱就来好好唠唠那些坑,帮你顺利搭建属于自己的 DeepSeek。
章为忠学架构
2025/04/04
1.3K0
别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南
Ollama 使用指南:Linux、Windows 和 macOS
Ollama 是一个开源平台,用于部署和运行大型语言模型。它提供了一种在本地环境中运行语言模型的能力,使得用户可以在本地安全地与这些模型进行交互,而无需将数据发送到云端。
井九
2024/10/12
8K0
Ollama 使用指南:Linux、Windows 和 macOS
Linux系统中安装redis+redis后台启动+常见相关配置
修改配置文件:编辑redis.conf文件,将daemonize选项设置为yes,然后正常启动Redis服务器,它会自动在后台运行。例如:
苏泽
2024/03/03
5.5K0
Linux系统中安装redis+redis后台启动+常见相关配置
linux离线安装docker20.10.7 版本(亲测有效)
为什么复制到这个 /usr/bin/ 里面,因为docker 文件夹下都是docker 的命令,也就是可执行文件,也就是我们操作docker 的指令。
一写代码就开心
2024/01/11
7.4K0
linux离线安装docker20.10.7 版本(亲测有效)
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
7.5K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
Linux内网离线安装Ollama
在线安装地址https://ollama.com/download选择服务器系统,按照步骤完成安装
IT小马哥
2024/08/15
7.5K0
Linux内网离线安装Ollama
Prometheus升级指南
Prometheus是一个基于Metrics的监控系统 ,与Kubernetes同属CNCF(Cloud Native Computing Foundation),它已经成为炙手可热的Kubernetes生态圈中的核心监控系统,越来越多的项目(如Kubernetes和etcd等 )都加入了丰富的Prom原生支持,从侧面体现了社区对它的认可。 Prometheus 2.0带来了许多变化和改进,例如新的时间序列数据库,更好的资源使用,新的警报配置格式以及更好的Alertmanager发现。
圣人惠好可爱
2018/07/31
6.5K0
Prometheus升级指南
Linux环境下,让Jar项目多线程部署成为可能
在当今互联网时代,应用程序的高可用性和性能是至关重要的。然而,随着用户数量和数据量的增加,单个实例可能无法满足需求。这就需要我们考虑如何在Linux服务器上部署多个实例,以应对高并发和大规模流量的挑战。
一只牛博
2025/05/31
1090
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(Backend as a Service,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到高效生产的快车道。其设计旨在打破技术壁垒,让非技术背景的用户也能轻松参与至AI应用的构思与数据运营之中,共同塑造智能未来。
汀丶人工智能
2024/08/17
3.2K0
无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案
在Linux服务器(ubuntu 16)上部署多套PHP环境
近期终于忍痛将所有的代码从SAE切换到了个人的vps,部署过程中发现,ubuntu 16默认支持的PHP版本为PHP 7,但是由于本人的PHP写的比较早,用到了mysql相关的内容,因此为了降低成本,不得不安装PHP 5.X系列。经过一番折腾终于解决问题,这里附上对应的过程。 最终版本 服务器: $ cat /proc/version Linux version 4.8.3-x86_64-linode76 (maker@build) (gcc version 4.7.2 (Debian 4.7
子勰
2018/05/22
1.6K0
如何在Linux上搭建Terraria 游戏服务器?
Terraria是一款二维沙盒游戏,类似于Minecraft(我的世界),允许玩家在开放的世界中探索,构建和战斗。2015年,Terraria开发者宣布支持Linux,这意味着玩家可以托管他们自己独立的Terraria服务器。
大大刺猬
2018/08/31
6.8K0
linux服务器安全配置实例(二)用户账户权限配置
豌豆贴心提醒,本文阅读时间7分钟 没有绝对的安全 在上一篇文章《linux服务器安全配置实例(一)》中介绍了我对ssh服务的一些常用的安全配置和性能优化。 其实ssh服务是我们进入服务器的一扇大门,这扇大门是提供正常人使用钥匙打开后进屋的。而对于一些恶意的小伙伴,他们会使用一些非法的方式,比如走窗户、暴力开锁等去不经过我们的同意就进屋大肆破坏。 走窗户:通过一些系统的0day漏洞或者第三方服务以及软件的漏洞溢出或者注入,在服务器中运行恶意的代码来得到登陆权限。 暴力开锁:通过一些暴力破解软件,暴力破
小小科
2018/05/02
3.2K0
linux服务器安全配置实例(二)用户账户权限配置
将服务注册为Linux Systemctl 启动项 – /usr/local/bin/ 注册为服务器的命令
说明:Description 是服务的描述,After 指定服务启动的时间点,Type 指定程序的启动方式,User 指定程序运行的用户,ExecStart 指定程序的启动命令,WantedBy 指定服务启动的级别。我们只关注这ExecStart就够了。
收心
2023/06/18
2K0
将服务注册为Linux Systemctl 启动项 – /usr/local/bin/ 注册为服务器的命令
Linux服务器被黑 排查思路(下)
2.查看是否有进程在使用这个文件,可以看到rsysload进程在使用,pid号是1264,使用者root,打开的文件描述符是4,结尾的状态是文件已经被删除。 lsof | grep /var/log/secure
陈不成i
2021/05/26
1.3K0
Linux服务器快速卸载安装node环境(简单上手)
进入 /usr/local/lib 删除所有 node 和 node_modules文件夹
季春二九
2023/03/22
6.8K0
一键式完全删除CDH 6.3.1
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
用户1148526
2019/11/12
3.3K0
推荐阅读
相关推荐
教你 1 小时搭建属于自己的 AI 知识库,Ollama + MaxKB 超详细教程略
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档