ceph-deploy安装ceph集群一、主机环境主机IPceph版本ceph集群角色192.168.201.14413.2.8mon、mgr、osd192.168.201.14513.2.8mon、mgr...部署工具yum install -y ceph-deploy2.5、初始化Mon配置mkdir /etc/ceph && cd /etc/ceph/ceph-deploy new --public-network...install --release mimic ceph0{1,2,3}2.8、初始化mon和秘钥证书ceph-deploy --overwrite-conf mon create-initial2.9...create ceph01 --filestore --fs-type xfs --data /dev/vdd --journal ceph-osd0-journal/log2.11、部署mds组件ceph-deploy...mds create ceph0{1,2,3}2.12、部署mgr Dashboard组件2.12.1、添加mgr功能ceph-deploy mgr create ceph0{1,2,3}2.12.2
最近用一组Fedora 19的虚拟机部署了一下ceph 0.81,由于ceph有了简化的部署工具ceph-deploy,看起来部署是个相当简单的过程,理论上应该就是下面几步: 0....实验环境下,删除所有iptables规则以及在所有机器间建立ssh信任,添加ceph的yum repo ceph-deploy new MON OSD1 OSD2 OSD3 ceph-deploy...install MON OSD1 OSD2 OSD3 ceph-deploy mon create-initial MON ceph-deploy gatherkeys MON OSD1...OSD2 OSD3 ceph-deploy osd prepare OSD1:/dir OSD2:/dir OSD3:/dir ceph-deploy osd activate OSD1:/...本人在实际操作中发现需要做如下补充: fedora 19需要安装几个ceph需要的软件包(为什么ceph-deploy不能自己检测一下?)
使用 ceph-deploy --username {username} 命令时,指定的用户必须能够通过无密码 SSH 连接到 Ceph 节点,因为 ceph-deploy 中途不会提示输入密码 useradd...6、管理节点上安装ceph-deploy su - admin sudo yum install ceph-deploy -y ?...如下图所示,执行时报错 ceph-deploy new ceph_admin Traceback (most recent call last): File "/bin/ceph-deploy...public network = 10.20.10.0/23 osd pool default size = 3 8、ceph-deploy在各节点安装 Ceph ceph-deploy install...12、用 osd create 命令一次完成准备 OSD 、部署到 OSD 节点、并激活它 ceph-deploy osd create --data /dev/sdb node1 ceph-deploy
yum install ceph ceph-deploy ssh-copy-id root@c2{5,6,7} ceph-deploy new c25 c26 c27 ceph-deploy --...ceph-conf ceph.conf --overwrite-conf mon create c25 ceph-deploy gatherkeys c25 ceph-deploy --ceph-conf...=/etc/ceph/ceph.conf --overwrite-conf mds create c25:c25 ceph-deploy --ceph-conf=/etc/ceph/ceph.conf...disk zap c27:/dev/vdb ceph-deploy --ceph-conf=/etc/ceph/ceph.conf --overwrite-conf osd prepare c27...:/dev/vdb ceph-deploy --ceph-conf=/etc/ceph/ceph.conf --overwrite-conf osd activate c27:/dev/vdb1:
之前已详细介绍了Ceph分布式存储基础知识,下面简单记录下Centos7使用Ceph-deploy快速部署Ceph环境: 1)基本环境 192.168.10.220 ceph-admin(ceph-deploy...快速部署) [root@ceph-admin ~]# su - cephuser 安装ceph-deploy [cephuser@ceph-admin ~]$ sudo yum update...[cephuser@ceph-admin cluster]$ ceph-deploy install ceph-admin ceph-node1 ceph-node2 ceph-node3...初始化monit监控节点,并收集所有密钥 [cephuser@ceph-admin cluster]$ ceph-deploy mon create-initial [cephuser@ceph-admin...(使用prepare命令) [cephuser@ceph-admin cluster]$ ceph-deploy osd prepare ceph-node1:/dev/vdb ceph-node2:/
实战目标 要学习使用Ceph,首先需要有一个Ceph集群,本文通过ceph-deploy一个自动化部署Ceph的工具部署一个Ceph集群,掌握Ceph集群部署的方法。 1....[root@node-1 ~]# yum install ceph-deploy -y [root@node-1 ~]# ceph-deploy --version 2.0.1 1.3 部署Ceph集群...提供了一个install的工具辅助软件包的安装,ceph-deploy install node-1 node-2 node-3 [root@node-1 ~]# ceph-deploy install...通过ceph-deploy工具进行部署完成Ceph集群的自动化部署,后续添加monitor节点,osd节点,mgr节点也会很方便。...2.4 Ceph安装小结 本文通过ceph-deploy完成一个1mon节点+1mgr节点+3个osd节点的集群,ceph-deploy安装简化了集群的部署,我在安装过程中遇到了不少报错(主要是rpm版本问题
ceph.repo wget -O /etc/yum.repos.d/ceph.repo https://raw.githubusercontent.com/aishangwei/ceph-demo/master/ceph-deploy...sudo yum install -y ceph-deploy Python-pip 部署节点 mkdir my-cluster;cd my-cluster ceph-deploy new ceph01...cd /home/my-cluster for dev in /dev/sdb /dev/sdc /dev/sdd do ceph-deploy disk zap ceph01 $dev ceph-deploy...osd create ceph01 --data $dev ceph-deploy disk zap ceph02 $dev ceph-deploy osd create ceph02 --data...$dev ceph-deploy disk zap ceph03 $dev ceph-deploy osd create ceph03 --data $dev done 部署mgr,Luminous版以后才需要部署
所以对于新人来说,或者说以我的经验,接触Ceph少于一个月的,又或者说,集群规模不上PB的,都没有必要手动部署,Ceph-deploy完全足够了。 ② Ceph-deploy怎么装?...这个包在ceph的源里面: yum install ceph-deploy -y ③Ceph-deploy装在哪?...④Ceph-deploy怎么用?...Ceph-deploy的所有的指令都需要在这个目录下执行。包括new,mon,osd等等一切ceph-deploy的指令都需要在这个部署目录下执行!...为ceph-deploy添加参数 Ceph-deploy的log还是很有看头的,查看ceph-deploy new blog(blog是我的一台主机)的log: [root@blog cluster]#
2.3 安装Ceph 1 [manager@deploy my-cluster]$ ceph-deploy install node1 node2 node3 ?...提示:ceph-deploy将在各节点安装Ceph,若部署过程出现异常,可通过以下命令清除相应配置,从而重新部署: ceph-deploy purgedata node1 node2 node3 ceph-deploy...forgetkeys rm ceph.* 或用以下命令将安装包也一并清除: ceph-deploy purge node1 node2 node3 注意:如果你执行过 ceph-deploy purge...注意:若使用ceph-deploy部署的时候出现安装包无法下载,可在部署时候指定ceph.repo为国内源: 1 ceph-deploy install node1 node2 node3 --repo-url...]$ ceph-deploy osd create --data /dev/sdb node2 4 [manager@deploy my-cluster]$ ceph-deploy osd create
/ceph.conf //监控网络 ceph-deploy mon create-initial //创建初始化mon ceph-deploy admin node{1..3} /...mgr create node1 #这里是为了实现HA,把node2,node3也做mgr ceph-deploy mgr create node2 ceph-deploy mgr create node3...ceph -s #可以看到mgr以node1为主节点,node2,node3为备 #然后创建osd存储盘 ceph-deploy disk list node{1..3} //查看节点上的磁盘 ceph-deploy...disk zap node1 /dev/sdb //初始化磁盘,类似格式化 ceph-deploy disk zap node2 /dev/sdb ceph-deploy disk zap node3.../dev/sdb #将磁盘创建为osd ceph-deploy osd create --data /dev/sdb node1 ceph-deploy osd create --data /dev/
增加 OSD( ceph-deploy ) 还可以通过 ceph-deploy 工具很方便的增加 OSD。 登入 ceph-deploy 工具所在的 Ceph admin 节点,进入工作目录。...执行下列命令列举一节点上的磁盘: ceph-deploy disk list {node-name [node-name]...} 格式化磁盘。...用下列命令格式化(删除分区表)磁盘,以用于 Ceph : ceph-deploy disk zap {osd-server-name}:{disk-name} ceph-deploy disk zap...ceph-deploy osd prepare {node-name}:{data-disk}[:{journal-disk}] ceph-deploy osd prepare osdserver1:sdb...ceph-deploy osd activate {node-name}:{data-disk-partition}[:{journal-disk-partition}] ceph-deploy osd
Ceph 提供了部署工具 ceph-deploy 来方便安装 Ceph 集群,我们只需要在 ceph-deploy 节点上安装即可,这里对应的就是 admin-node 节点。...把 Ceph 仓库添加到 ceph-deploy 管理节点,然后安装 ceph-deploy。...复制完毕,测试一下在 ceph-deploy 管理节点免密码登录各个节点。...# ceph-deploy (admin-node) 上执行 # 清理配置 ceph-deploy purgedata admin node0 node1 ceph-deploy forgetkeys...此时,我们会发现 ceph-deploy 会在 ceph-cluster 目录下生成几个文件,ceph.conf 为 ceph 配置文件,ceph-deploy-ceph.log 为 ceph-deploy
ceph-deploy 会尝试给初始 monitors 生成 SSH 密钥对。生成 SSH 密钥对,使用创建的用户不要用 sudo 或 root 。...# sudo yum install ceph-deploy //若安装ceph后遇到麻烦可以使用以下命令进行清除包和配置 #ceph-deploy purge node1 node2 node3 #...ceph-deploy purgedata node1 node2 node3 #ceph-deploy forgetkeys 安装ceph创建集群 //进入到创建ceph-cluster文件夹下,执行命令...来准备 OSD #ceph-deploy osd prepare node2:/var/local/osd0 node3:/var/local/osd1 //最后,激活 OSD #ceph-deploy...安装过程中可能遇到的问题的解决方法: #ceph-deploy install node1 node2 node3 时报错: (1) [ceph_deploy][ERROR ]RuntimeError:
添加OSD # 准备磁盘(切换到my-cluster目录) ceph-deploy disk list node1 # 擦净磁盘 ceph-deploy disk zap node1:sdd # 创建...OSD ceph-deploy osd prepare node1:sdd:/dev/sdb2 ceph-deploy osd activate node1:sdb1:/dev/sdb2 删除OSD
创建部署文件目录 mkdir -p /etc/ceph cd /etc/ceph 创建一个集群(创建mon节点) ceph-deploy new ceph-node1 ceph-node2 (也就是定义...ceph-node2 ceph-node3 初始化 mon节点 并收集所有的秘钥 ceph-deploy mon create-initial 创建osd ceph-deploy osd create...ceph-node1:/dev/sdb ceph-node2:/dev/sdb 使用ceph-deploy把配置文件和admin秘钥推送到管理节点和ceph节点 ceph-deploy admin...osd create ceph-node3:/dev/sdb 2、在ceph-node1增加一个元数据的角色 ceph-deploy mds create ceph-node1 3、增加一个新的...mon在ceph-node3 上面 ceph-deploy mon add ceph-node3 误删osd恢复流程 记录osd状态:ceph osd tree ID WEIGHT TYPE NAME
增加 Monitor( ceph-deploy ) 还可以通过 ceph-deploy 工具很方便地增加 MON。...登入 ceph-deploy 工具所在的 Ceph admin 节点,进入工作目录。...注意: 在某一主机上新增 Mon 时,如果它不是由 ceph-deploy new 命令所定义的,那就必须把 public network 加入 ceph.conf 配置文件。 4....删除 Monitor( ceph-deploy ) 登入 ceph-deploy 工具所在的 Ceph admin 节点,进入工作目录。...ceph-deploy mon destroy {host-name [host-name]...} 注意: 确保你删除某个 Mon 后,其余 Mon 仍能达成一致。
一、服务器规划 主机名 主机IP 磁盘 角色 node3 public-ip:172.18.112.20 cluster-ip: 172.18.112.20 vdb ceph-deploy,monitor...[admin@node3 ~]# sudo yum install ceph-deploy 初始化mon点 ceph需要epel源的包,所以安装的节点都需要yum install epel-release...`,如下命令部署一个`Manager`守护进程 [admin@node3 my-cluster]$ ceph-deploy mgr create node3 八、创建osd #用法:ceph-deploy...osd create –data {device} {ceph-node} ceph-deploy osd create --data /dev/vdb node3 ceph-deploy osd create...--data /dev/vdb node4 ceph-deploy osd create --data /dev/vdb node5 检查osd状态 [admin@node3 my-cluster]
服务器规划 主机名 主机IP 磁盘配比 角色 node1 public-ip:10.0.0.130cluster-ip:192.168.2.130 sda,sdb,sdcsda是系统盘,另外两块数据盘 ceph-deploy...[root@node1 ~]# sudo yum install ceph-deploy 初始化mon点 ceph需要epel源的包,所以安装的节点都需要yum install epel-release...#用法:ceph-deploy osd create –data {device} {ceph-node} ceph-deploy osd create --data /dev/sdb node1 ceph-deploy...osd create --data /dev/sdb node2 ceph-deploy osd create --data /dev/sdb node3 ceph-deploy osd create...--data /dev/sdc node1 ceph-deploy osd create --data /dev/sdc node2 ceph-deploy osd create --data /dev
添加描述 更改 PID 值 配置管理节点服务器 配置并验证了所有网络后,我们现在使用 ceph 用户安装 ceph-deploy。...p=ceph.git;a=blob_plain;f=keys/release.asc 之后更新你的系统并安装 ceph-deploy 软件包。...安装 ceph-deploy 软件包 我们运行下面的命令以及 ceph-deploy 安装命令来更新系统以及最新的 ceph 库和其它软件包。...# ceph-deploy disk zap storage:sda# ceph-deploy disk zap storage:sdb 为了最后完成 OSD 配置,运行下面的命令配置日志磁盘以及数据磁盘...# ceph-deploy osd prepare storage:sdb:/dev/sda# ceph-deploy osd activate storage:/dev/sdb1:/dev/sda1
-221 ceph]# yum update -y && yum install ceph-deploy -y ----------------以下操作在ceph-deploy节点操作-------...-221 ceph]# ceph-deploy install kevin-232 [root@kevin-221 ceph]# ceph-deploy install dn-5-22{4..9}...命令格式:"ceph-deploy osd prepare {ceph-node}:/path/to/directory" [root@kevin-221 ceph]# ceph-deploy osd...命令格式:"ceph-deploy osd activate {ceph-node}:/path/to/directory" [root@kevin-221 ceph]# ceph-deploy osd...命令格式:"ceph-deploy mds create {ceph-node}" [root@kevin-221 ceph]# ceph-deploy mds create ceph-node1 注意
领取专属 10元无门槛券
手把手带您无忧上云