首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >利用rbd命令给一个镜像创建快照并查看快照

利用rbd命令给一个镜像创建快照并查看快照

作者头像
院长技术
发布于 2020-06-13 03:56:37
发布于 2020-06-13 03:56:37
2.4K00
代码可运行
举报
文章被收录于专栏:院长运维开发院长运维开发
运行总次数:0
代码可运行

首先查看镜像: [root@node1 ~]# rbd ls images a56330e7-79d7-4639-a68f-366ac344bfe2 eccfee07-c2c9-4e6e-96a2-b4350162ec41 testimage

创建快照: 命令格式:rbd snap create 池/镜像@快照名: [root@node1 ~]# rbd snap create images/testimage@testimagesnap

查看该镜像的快照 [root@node1 ~]# rbd snap ls -p images testimage SNAPID NAME SIZE TIMESTAMP

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
10 testimagesnap 20 GiB Sat Jun  1 15:18:40 2019 

查看快照详细信息 [root@node1 ~]# rbd info images/testimage@testimagesnap rbd image 'testimage':

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
size 20 GiB in 5000 objects
order 22 (4 MiB objects)
id: 31644b6b8b4567
block_name_prefix: rbd_data.31644b6b8b4567
format: 2
features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
op_features: 
flags: 
create_timestamp: Sat Jun  1 15:07:10 2019
protected: False
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
利用rbd命令调整一个镜像的尺寸
查看原始镜像大小为:1000兆 [root@node1 ~]# rbd -p images info testimage rbd image 'testimage':
院长技术
2020/06/13
7120
在CEPH管理节点查看 ceph pool 中一个镜像的信息
查看镜像 [root@node1 ~]# rbd ls images a56330e7-79d7-4639-a68f-366ac344bfe2 eccfee07-c2c9-4e6e-96a2-b4350162ec41
院长技术
2020/06/13
1.7K0
ceph 运维操作-RBD
1.说明 1.1介绍 RBD全称RADOS block device,是Ceph对外提供的块设备服务。 2. 常用操作 2.1 查看pool里所有镜像 $ rbd ls rbd 03aa248c-0de5-45e5-9c2b-5fe26b230275 97ee910f-8427-4b58-9b6a-4ed3df7049d0 a-0124fc5c-02e2-40b8-a05f-101da2f7d9a8 a-289320f4-ae8e-49e6-89f7-deec439a3831 a-44750fdc-6202
Lucien168
2020/07/20
7120
每天10分钟玩转Ceph(二)探索RBD块存储接口
部署完Ceph集群之后,如何在Ceph集群中存储文件呢?ceph提供了三种接口供用户使用,分别是:
HappyLau谈云计算
2020/03/02
5K0
每天10分钟玩转Ceph(二)探索RBD块存储接口
ceph-块存储客户端
ceph块设备,以前称为RADOS块设备,为客户机提供可靠性、分布式和高性能的块存储磁盘。RADOS块设备利用librbd库并以顺序的形式在ceph集群的多个osd上存储数据块。RBD是由ceph的RADOS层支持,因此每个块设备都分布在多个ceph节点上,提供了性能和优异的可靠性。RBD有linux内核的本地支持,这意味着RBD驱动程序从过去几年就与linux内核集成的很好。除了可靠性和性能外,RBD还提供了企业特性,例如完整和增量快照、瘦配置、写时复制克隆、动态调整大小等,RBD还支持内存缓存,这大大提高了性能。
yuezhimi
2020/09/30
3.3K0
使用luks2对ceph rbd进行加密
多个行业(例如金融行业)越来越需要在主机上使用租户/用户提供的加密密钥以卷粒度加密数据。这是由国家法规和对安全性的日益重视所推动的。迄今为止,Ceph RBD 不提供任何此类解决方案,现有的替代方案是在 libRBD 之前添加一个加密层。此类解决方案的示例是使用 QEMU LUKS 加密或依赖 DM-Crypt。但是,在与 RBD 层中实现的存储功能接口时,使用 RBD 之上的加密层有局限性。当我们进行镜像克隆时,只有在父子节点使用相同的加密密钥加密时才会起作用。通过将加密向下移动到 libRBD,就可以灵活地使用 Ceph RBD 克隆了。
没有故事的陈师傅
2022/09/15
1K0
使用luks2对ceph rbd进行加密
ceph 分布式存储-块存储(RBD)搭建
PG数量的预估 集群中单个池的PG数计算公式如下:PG 总数 = (OSD 数 * 100) / 最大副本数 / 池数 (结果必须舍入到最接近2的N次幂的值)
Lucien168
2020/07/20
3.7K0
rbd image找到对应osd位置
1. 查找image指纹信息 $ rbd info test_pool/test_image rbd image 'test_image': size 102400 MB in 25600 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.12c074b0dc51 #指纹就是12c074b0dc51 format: 2 features: layering, exclusive-lock,
Lucien168
2020/07/20
7640
QEMU3 - 使用ceph来存储QEMU镜像
ceph简介 Ceph是一个PB级别的分布式软件定义存储系统,为用户提供了块存储、对象存储以及符合POSIX标准的文件系统接口。目前,Ceph已经成为Openstack最受欢迎的后端存储系统。下图为c
宅蓝三木
2018/02/07
2.5K0
QEMU3 - 使用ceph来存储QEMU镜像
Jewel版本Ceph集群功能性能测试
参考文档 http://docs.ceph.com/docs/master/start/quick-start-preflight/#rhel-centos https://www.linuxidc.com/Linux/2017-09/146760.htm http://s3browser.com/ http://docs.ceph.org.cn/man/8/rbd/ https://hub.packtpub.com/working-ceph-block-device/# https://github.co
三杯水Plus
2018/11/14
1.3K0
利用rbd命令指定在某个池中创建一个自定义镜像
创建一个命名为 testimage 的 10000M 的镜像 [root@node1 ~]# rbd create -p images --size 1000 testimage
院长技术
2020/06/13
1.1K0
利用rbd命令删除一个镜像文件的快照----待纠正---出错版
查看该镜像的快照 [root@node1 ~]# rbd snap ls -p volumes volume-79413731-79d6-48a2-a862-f70e8299ff62 SNAPID NAME SIZE TIMESTAMP
院长技术
2020/06/13
1.9K0
利用rbd命令查看一个镜像文件的快照
查看镜像 [root@node1 ~]# rbd ls volumes volume-79413731-79d6-48a2-a862-f70e8299ff62 volume-10a0c46c-ac7d-4b38-8792-1276e22be669 volume-14e8ce3d-b65c-4035-99a5-2b41f402939f volume-1bb0619e-8975-4e68-9620-ddb57811c3a4 volume-20f7d04e-bcc8-41c5-b41b-aa4c96d3479d volume-239b3f59-c605-48b8-8bf7-9b335821c774 volume-29defce9-8a72-4fcf-9085-716625b81acf volume-2bcc85bb-f7a1-4359-9fa0-5e5fe7e5d5b0 volume-2e01aabf-cf58-4a18-b2dd-d21d786ab8d3 volume-304632ef-304d-4757-8ff7-9ba0f7676b56 volume-30b6711f-6b5f-4727-a62d-bfabee20460d volume-3b9c927b-050c-4345-b8a6-44498a6b113d
院长技术
2020/06/13
2.2K0
利用rbd命令把 ceph pool 中的一个镜像导出
查看镜像 [root@node1 ~]# rbd ls images a56330e7-79d7-4639-a68f-366ac344bfe2 eccfee07-c2c9-4e6e-96a2-b4350162ec41 testimage
院长技术
2020/06/13
3.9K2
K8s上用Ceph-rbd存储
k8s默认使用的本地存储,集群容灾性差,ceph作为开源的分布式存储系统,与openstack环境搭配使用,已经很多云计算公司运用于生产环境,可靠性得到验证。这里介绍一下在k8s环境下ceph如何使用.
院长技术
2020/06/11
2K0
rbd命令把镜像导入ceph中
rbd命令把镜像导入ceph中(但是直接导入是不能用的, 因为没有经过 openstack,openstack 是看不到的)
院长技术
2020/06/13
2.3K0
解决K8S中Pod无法正常Mount PVC的问题
意思就是说该Pod启动需要挂载PVC,但是这个PVC目前正被使用。可以确定的是除了这个Deployment之外,没有其他Deployment在使用这个PVC,那这是为什么呢?
没有故事的陈师傅
2021/08/13
3.1K0
rbd无法map
这个地方提示的很清楚了,不支持的属性0x3c,0x3c是16进制的数值,换算成10进制是3*16+12=60 60的意思是不支持:
院长技术
2020/06/11
9260
Ceph RBD灾备方案对比
Cluster A & B仍然是独立的Ceph集群,通过RBD的snapshot机制,在Cluster A端,针对image定期通过rbd创建image的snap,
Lucien168
2020/07/20
4.9K1
从ceph对象中提取RBD中的指定文件
之前有个想法,是不是有办法找到rbd中的文件与对象的关系,想了很久但是一直觉得文件系统比较复杂,在fs 层的东西对ceph来说是透明的,并且对象大小是4M,而文件很小,可能在fs层进行了合并,应该很难找到对应关系,最近看到小胖有提出这个问题,那么就再次尝试了,现在就是把这个实现方法记录下来 这个提取的作用个人觉得最大的好处就是一个rbd设备,在文件系统层被破坏以后,还能够从rbd提取出文件,我们知道很多情况下设备的文件系统一旦破坏,无法挂载,数据也就无法读取,而如果能从rbd中提取出文件,这就是保证了即使文件系统损坏的情况下,数据至少不丢失
用户2772802
2018/08/06
6K0
相关推荐
利用rbd命令调整一个镜像的尺寸
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档