首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

CentOS 7的ceph-deploy找不到ceph-02:/dev/sdb文件

CentOS 7的ceph-deploy找不到ceph-02:/dev/sdb文件可能是由于以下几个原因导致的:

  1. 设备未正确挂载:首先,确保ceph-02服务器上的/dev/sdb设备已经正确挂载。可以通过运行命令lsblk来查看设备是否存在以及是否已挂载。如果设备未挂载,可以使用fdisk命令对其进行分区并使用mkfs命令格式化分区。然后,使用mount命令将分区挂载到指定的目录。
  2. 设备命名不一致:在某些情况下,设备命名可能会发生变化,导致ceph-deploy无法找到指定的设备。可以通过查看/dev目录下的设备列表,确认设备的实际命名。如果设备命名不是/dev/sdb,可以在ceph-deploy命令中使用正确的设备路径。
  3. 设备驱动未加载:如果设备驱动未正确加载,系统将无法识别设备。可以使用lsmod命令查看是否加载了正确的设备驱动。如果设备驱动未加载,可以尝试重新加载驱动或更新驱动程序。
  4. 网络连接问题:ceph-deploy需要通过网络连接到ceph-02服务器来执行相关操作。确保网络连接正常,并且ceph-02服务器可以通过网络访问。

如果以上方法都无法解决问题,可以尝试重新安装ceph-deploy或者查阅ceph-deploy的官方文档以获取更多帮助。

关于ceph-deploy的更多信息,你可以访问腾讯云的文档链接:ceph-deploy

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • CentOS 7.5安装部署Jewel版本Ceph集群

    Map和CRUSH Map,这些Map统称为Cluster Map,Cluster Map是RADOS关键数据结构,管理集群中所有成员、关系、属性等信息以及数据分发,比如当用户需要存储数据到Ceph...Ceph MDS:全称是Ceph MetaData Server,主要保存文件系统服务元数据,但对象存储和块存储设备是不需要使用该服务。...对RGW最直接理解就是一个协议转换层,把从上层应用符合S3或Swift协议请求转换成rados请求, 将数据保存在rados集群中。 架构图 ?...:/dev/sdb --zap-disk ceph-deploy --overwrite-conf osd activate idcv-ceph0:/dev/sdb1 idcv-ceph1:/dev.../sdb1 idcv-ceph2:/dev/sdb1 idcv-ceph3:/dev/sdb1 [root@idcv-ceph0 cluster]# ceph-deploy --overwrite-conf

    81130

    ceph分布式集群文件存储简单搭建

    一、环境准备 给每个node节点加上一块硬盘,不能是逻辑卷,这里我三个设备都是/dev/sdb 修改主机名,必须与hosts文件一致 systemctl disable --now firewalld...;done //官方有些版本没有固定配置文件目录,自己创建一下 cd /etc/ceph ceph-deploy new node1 //创建集群,这里可以看到当前目录已经有了三个配置文件 for....3} //查看节点上磁盘 ceph-deploy disk zap node1 /dev/sdb //初始化磁盘,类似格式化 ceph-deploy disk zap node2 /dev/sdb...ceph-deploy disk zap node3 /dev/sdb #将磁盘创建为osd ceph-deploy osd create --data /dev/sdb node1 ceph-deploy...osd create --data /dev/sdb node2 ceph-deploy osd create --data /dev/sdb node3 ceph -s 可以看到已经加了三个osd

    57720

    Ceph简单搭建

    Ceph OSD架构实现由物理磁盘驱动器、Linux文件系统和Ceph OSD服务组成,对于Ceph OSD Deamon而言,Linux文件系统显性支持了其拓展性,一般Linux文件系统有好几种,...journal,然后刷新到文件系统,这给了文件系统足够时间来合并写入磁盘,一般情况下使用SSD作为OSDjournal可以有效缓冲突发负载。   ...disk zap ceph1 /dev/sdb [root@ceph1 ceph]# ceph-deploy disk zap ceph2 /dev/sdb 创建osd(一共俩个) [root@ceph1...ceph]# ceph-deploy osd create ceph1 --data /dev/sdb [root@ceph1 ceph]# ceph-deploy osd create ceph2...--data /dev/sdb ceph秘钥拷贝(主节点执行)及修改密钥权限 用 ceph-deploy 把配置文件和 admin 密钥拷贝到管理节点和 Ceph 节点,这样你每次执行 Ceph 命令行时就无需指定

    1.1K10
    领券