首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >查看,修改ceph节点的ceph配置命令

查看,修改ceph节点的ceph配置命令

作者头像
domain0
发布于 2019-10-24 07:42:51
发布于 2019-10-24 07:42:51
4.5K0
举报
文章被收录于专栏:运维一切运维一切

查看ceph配置

  1. 查看ceph默认配置:

ceph --show-config

  1. 查看 type.num 的ceph默认配置: 如需查看osd.1,mon.node1的ceph配置

ceph -n osd.1 --show-config

ceph -n mon.node1 --show-config

ceph-osd -i 1 --show-config

ceph-mon -i node1--show-config

又或者:

cd /var/run/ceph

ceph --admin-daemon ceph-osd.1.asok config show

ceph --admin-daemon ceph-mon.node1.asok config show

该命令要求必须在 osd.1 , mon.node1节点上才能执行 这三种方法显示结果都是一样的,不过第三种方法的显示格式和一二种不同而已。

  1. 查看 type.num 的ceph默认配置中的某一个字段: 如查看 osd.1 或 mon.node1的 osd_scrub_max_interval 设置

ceph -n osd.1 --show-config | grep osd_scrub_max_interval

ceph -n mon.node1 --show-config | grep osd_scrub_max_interval

ceph-osd -i 1 --show-config | grep osd_scrub_max_interval

ceph-mon -i node1--show-config | grep osd_scrub_max_interval

又或者:

cd /var/run/ceph

ceph --admin-daemon ceph-osd.1.asok config get osd_scrub_max_interval

ceph --admin-daemon ceph-mon.node1.asok config get osd_scrub_max_interval

同样这个命令要求必须在 osd.1 , mon.node1节点上才能执行 这三种方法显示结果都是一样的,不过第三种方法的显示格式和一二种不同而已。

  1. 修改 type.num 的ceph默认配置中的某一个字段: 如修改 osd.1 或 mon.node1的 osd_scrub_max_interval为 5 分钟

cd /var/run/ceph

ceph --admin-daemon ceph-osd.1.asok config set osd_scrub_max_interval 300

ceph --admin-daemon ceph-mon.node1.asok config set osd_scrub_max_interval 300

同样这个命令要求必须在 osd.1 , mon.node1节点上才能执行

参考文献: Display the default Ceph configuration 理解 OpenStack + Ceph (9): Ceph 的size/min_size/choose/chooseleaf/scrubbing/repair 等概念

(adsbygoogle = window.adsbygoogle || []).push({});

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
CEPH常用命令
服务相关: stemctl status ceph*.service ceph*.target #查看所有服务 systemctl stop ceph*.service ceph*.target #关闭所有服务 systemctl start ceph.target #启动服务 systemctl stop ceph-osd*.service # 关闭所有osd服务 systemctl stop ceph-mon*.service #关闭所有mon服务 sudo systemctl start ceph-o
院长技术
2020/06/12
1.5K0
ceph 运维常用命令总结
    cluster be1756f2-54f7-4d8f-8790-820c82721f17
DevinGeng
2019/04/09
5.7K0
修改集群配置
Ceph 配置文件可用于配置存储集群内的所有守护进程、或者某一类型的所有守护进程。要配置一系列守护进程,这些配置必须位于能收到配置的段落之下,比如:
Lucien168
2020/07/20
1.2K0
ceph运维操作
如果是在admin节点修改的ceph.conf,想推送到所有其他节点,则需要执行下述命令
匿名用户的日记
2022/01/05
3.5K0
ceph运维常用指令
[root@node1 ~]# ceph-deploy purgedata node1
IT运维技术圈
2022/06/26
1.9K0
ceph设计原理与实现(RGW、CephFS、实战)
1、侠义讲,对象存储就是云存储 2、分布式文件系统:CephFS 3、每天晚上10点到早上7点Scrub ceph tell osd.* injectargs "--osd-scrub-begin-hour 22" ceph tell osd.* injectargs "--osd-scrub-end-hour 7" vi /etc/ceph/ceph.conf [osd] osd_scrub_begin_hour = 22 osd_scrub_end_hour = 7 4、ceph数据重建配置策略 //提升recovery的优先级,降低client的优先级 ceph tell osd.* injectargs "--osd-recovery-op-priority 63" ceph tell osd.* injectargs "--osd-client-op-priority 3" //等recovery完成, ceph tell osd.* injectargs "--osd-recovery-op-priority 3" ceph tell osd.* injectargs "--osd-client-op-priority 63" //永久性修改优先级 /etc/ceph/ceph.conf
用户5760343
2022/05/18
7500
ceph设计原理与实现(RGW、CephFS、实战)
Ceph配置文件参考
Ceph 配置文件可用于配置存储集群内的所有守护进程、或者某一类型的所有守护进程。要配置一系列守护进程,这些配置必须位于能收到配置的段落之下,比如:
dogfei
2020/07/31
1.4K0
SUSE Linux Enterprise Server 11 SP3上轻松搭建Ceph集群
在SUSE Linux Enterprise Server 11 SP3上轻松搭建Ceph集群。
星哥玩云
2022/07/03
8170
ceph运维常用命令
ceph osd df - 可以查看每个osd的用量,每个osd的pg数,权重 ceph osd find <int> - 可以查找到osd的位置,在osd比较多时用到 ceph osd perf - 可以查看所有osd提交及应用提交的延时,对监控osd的健康状态极有帮助 ceph osd scrub <int> - 指定osd进行清洗,注意到,清洗是为了检查osd缺陷和文件系统错误,正确的清洗策略很重要 ceph quorum_status - 报告集群当前法定人数情况,若集群因mon跪了导致故障可由此排查 ceph report - 报告集群当前的全部状态,输出信息非常详细,排查没有头绪时可以试试这个 radosgw-admin bucket limit check - 查看bucket的配置信息,例如索引分片值 ceph daemon osd.1 config show - 显示指定的osd的所有配置情况 ceph tell 'osd.*' injectargs '--osd_max_backfills 64' - 立即为osd设置参数,不需要重启进程即生效 ceph daemon /var/run/ceph/ceph-client.rgw.hostname -s.asok config show - 查看指定的asok的配置 ceph-bluestore-tool bluefs-export --path /var/lib/ceph/osd/ceph-1 --out-dir /home/xx - 导出指定osd的整个rocksdb ceph-kvstore-tool rocksdb /home/xx/db/ list - 查看rocksdb里面的记录 ceph tell osd.* heap release - 通知所有osd释放那些可以释放的内存 ceph daemon osd.x dump_historic_ops - 调查指定osd的op处理情况,诊断延时的瓶颈 ceph daemon osd.x dump_ops_in_flight - 调查指定osd的性能问题
院长技术
2020/06/15
2.5K0
ceph分布式存储-常见 PG 故障处理
创建一个新集群后,PG 的状态一直处于 active , active + remapped 或 active + degraded 状态, 而无法达到 active + clean 状态 ,那很可能是你的配置有问题。
Lucien168
2020/07/20
4K0
CENTOS7手动安装CEPH 原
1.配置你的hostname 你不要搞奇葩的hostname,奇葩的hostname就可能有奇葩的问题,你就老实的node1,这种的字母加数字 centos7修改host: hostnamectl set-hostname node1 2.准备好参考的配置文件 [global] auth service required = cephx filestore xattr use omap = true auth client required = cephx auth cluster required = cephx mon host = 192.168.0.1,192.168.0.2,192.168.0.3 mon initial members = node1,node2,node3 fsid = 87619a71-34dc-4203-8c52-995c374562a6 [mon.node1] host = node1 mon addr = 192.168.0.1:6789 [mon.node2] host = node2 mon addr = 192.168.0.2:6789 [mon.node3] host = node3 mon addr = 192.168.0.3:6789 写到/etc/ceph/ceph.conf 3.清理环境 rm -fr /var/lib/ceph/* rm -fr /tmp/monmap /tmp/ceph.mon.keyring
domain0
2018/08/02
6870
Ceph集群常用命令参考
如果一个OSD处于up状态,那么它可以是在集群内,也可以是在集群外,如果之前的状态为 up 且 in,现在变成 up out了,那么ceph会把PG迁移到其他的OSD上。如果某个OSD的变成out了,则crush就不会再分配PG给它,如果状态为down,那么它的状态就会为out,默认在OSD down掉300s后标记它为out状态
dogfei
2020/07/31
9980
Ceph:关于 Ceph 存储架构的一些笔记
Ceph 集群搭建使用标准硬件和存储设备的服务器,是一个高度可扩展的分布式存储系统, 采用模块化分布式架构。Ceph 主要通过 RADOS 核心组件来提供能力。
山河已无恙
2023/08/21
1.5K0
Ceph:关于 Ceph 存储架构的一些笔记
Ceph 架构及性能优化
ceph-mon和ceph-mds需要2G内存,每个ceph-osd进程需要1G内存。
肉眼品世界
2021/04/20
9220
Centos7下使用Ceph-deploy快速部署Ceph分布式存储-操作记录
之前已详细介绍了Ceph分布式存储基础知识,下面简单记录下Centos7使用Ceph-deploy快速部署Ceph环境: 1)基本环境
洗尽了浮华
2018/08/01
1.1K0
ceph recovering速度控制
问题背景 集群中剔除了一个osd,没有新加入,进行了一次pg的均衡,做完均衡后集群出现· Degraded data redundancy: 256 pgs undersized,为了保证集群的pg副本数为3,需要新添加一个osd来做pg的均衡 ceph 集群的状态 [root@node1 ~]# ceph -v ceph version 14.2.18 (befbc92f3c11eedd8626487211d200c0b44786d9) nautilus (stable) [root@node1 ~]#
用户4700054
2022/08/17
2.6K0
ceph常用命令详解_ceph osd
OSD进程的启动停止:https://blog.csdn.net/bandaoyu/article/details/119894927
全栈程序员站长
2022/11/17
1.6K0
CentOS 7.5安装部署Jewel版本Ceph集群
1、修改cpeh.conf文件 注意mon为奇数,如果为偶数,有一个不会安装,另外设置好public_network,并稍微增大mon之间时差允许范围(默认为0.05s,现改为2s)
三杯水Plus
2018/11/14
8620
ceph分布式存储-检查集群健康状态
元数据服务器为 Ceph 文件系统提供元数据服务,不过在当前生产环境中并未部署 MDS 。
Lucien168
2020/07/20
1.3K0
kubernetes(十九) Ceph存储入门
Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域的广泛使用,ceph也变得更加炙手可热。国内目前使用ceph搭建分布式存储系统较为成功的企业有华为,xsky,杉岩数据,中兴,华三,浪潮,中移动等。
alexhuiwang
2020/09/23
4K0
kubernetes(十九) Ceph存储入门
相关推荐
CEPH常用命令
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档