[root@controller ~]# systemctl status openstack-cinder-volume.service target.service openstack-cinder-api.service openstack-cinder-scheduler.service ● openstack-cinder-volume.service - OpenStack Cinder Volume Server Loaded: loaded (/usr/lib/systemd/system/openstack-cinder-volume.service; disabled; vendor preset: disabled) Active: inactive (dead)
Cinder是OpenStack中提供块存储服务的组件,主要功能是为虚拟机实例提供虚拟磁盘管理服务。Cinder的前身是Nova中的“nova-volume”组件,OpenStack F 版以后就将其从Nova中被剥离出来作为一个独立的OpenStack组件。
Cinder架构原理 当有用户或Nova compute提供创建卷的请求时,首先由Cinder API接收请求,然后以消息队列的形式发送给Cinder Scheduler来调用,Cinder Scheduler 侦听到来自Cinder API的消息队列后,到数据库中取查询当前存储节点的状态信息,并根据预定策略选择卷的最佳volume service节点,然后将调度的结果发布出来给volume service来调用,当volume service收到volume scheduler 的调度结果后,会去查找volume providers, 从而在特定存储节点上创建相关的卷,然后将相关结果返回给用户,同时将修改的数据写入到数据库中。
↓↓↓↓↓↓↓↓视频已上线B站↓↓↓↓↓↓↓↓ 》》》》》》传送门 1.创建数据库并授权 2.获得admin凭证执行管理员命令并创建服务证书 3.创建块存储设备API接口 4.Controller节点安装块存储组件并配置 5.初始化块设备服务的数据库 6.配置计算节点以使用块设备存储 7.重启服务并设置开机启动 8.Compute节点安装并配置一个存储节点,此处用Compute节点代替 9.验证操作 1.创建数据库并授权 # mysql -uroot -p000000 > create database c
在ceph节点两次执行如下语句,两次{your-openstack-server}分别填控制节点和计算节点IP。
部署cinder存储节点 安装cinder 存储节点为ceph的节点,一般会安装在mon所在的节点上
什么是cinder? cinder是一个openstack的组件,用来给云主机提供硬盘的一个服务 还可以对卷进行管理,允许对卷、卷的类型、卷的快照、卷备份进行处理。 它的容量都是通过cinder中实现的驱动对接来自于后端的储存,比如iscsi,glusterfs,nfs,ceph Cinder中的模块 Cinder API:对客户端的操作请求进行解析,并寻找相应的处理方法。包括了卷、快照的增删改查,卷的挂载卸载等。 Cinder Scheduler:根设定的算法,对新建卷指定一个合适的后端储存 Cinder
Cinder是一个可扩展、可靠和可用的块存储服务,它的主要功能包括:创建和删除卷、卷的扩容和缩小、卷的备份和还原、卷的快照、卷的迁移和复制等。下面是Cinder组件的详细介绍:
创建3个卷p_w_picpaths、volumes、instances分别对接openstack的glance、cinder、nova组件
[root@controller ~]#yum install -y openstack-cinder python-cinderclient
[root@block1 ~]# systemctl enable lvm2-lvmetad.service
openstack安装详见:OpenStack实践(一):Ubuntu16.04下DevStack方式搭建p版OpenStack
原文链接:http://docs.ceph.com/docs/master/rbd/rbd-openstack/
一、组网需求: 1、如下图所示,某用户内网被划分为VLAN 10、VLAN 20、VLAN 30,以实现相互间的2 层隔离; 2、3 个VLAN 对应的IP 子网分别为192.168.10.0/24 、192.168.20.0/24 、192.168.30.0/24,3 个VLAN 通过3 层核心交换机的IP 转发能力实现子网互连。 三、配置要点: 本用例以核心交换机和1 台接入交换机为例说明配置过程。要点如下: 1)在核心交换机配置3 个VLAN,配置下连接入交换机的端口为trunk 口 2)在核心交换机配置3 个SVI 口,分别作为3 个VLAN 对应IP 子网的网关接口,配置对应的IP 地址; 3)分别在3 台接入交换机创建VLAN,为各VLAN 分配Access 口,指定上连核心交换机的trunk 口。本用例以接入交换机Switch A 为例说明配置步骤。
OpenStack块存储服务为实例提供块存储。存储的分配和消耗是由块存储驱动器,或者多后端配置的驱动器决定的。还有很多驱动程序可用:NAS/SAN,NFS,ISCSI,Ceph等等。块存储API和调度程序服务通常运行在控制节点上。取决于所使用的驱动程序,卷服务可以运行在控制,计算节点或者独立的存储节点上。
[root@controller ~]# cinder service-list Binary Host Zone Status State Updated_at Disabled Reason cinder-scheduler controller nova enabled up 2019-05-14T02:02:20.000000 - cinder-volume node1@ceph nova enabled up 2019-05-14T02:02:31.000000 - cinder-volume n
补充内容: 1.修改 crushmap 有两种方式:在线修改和离线修改 2.为了保险起见一般都是采用离线修改,也就是导出来修改 3.导出默认的 crushmap,这个是二进制文件打不开 ceph osd getcrushmap -o {compiled-crushmap-filename} 4.将刚才的二进制文件转换成可视化的文本文件 crushtool -d {compiled-crushmap-filename} -o {decompiled-crushmap-filename} 5.转换成可视化的文本文件之后,建议不要把默认的二进制文件删掉避免修改 crushmap 造成 ceph 集群瘫痪,这样我们还留了一个备份 6.修改 crushmap,也就是下面讲述的 crushmap 详解,根据实际情况修改 7.将刚才修改的可视化文本文件转换成二进制文件 crushtool -c {decompiled-crush-map-filename} -o {compiled-crush-map-filename} 8.设置 OSD 的 crushmap,也就是把刚才转换的二进制文件让他生效 ceph osd setcrushmap -i {compiled-crushmap-filename} 9.创建 ssd 和 sata 两个 pool ceph osd pool create ssd 128 ceph osd pool create sata 128 10.创建完 ssd 和 sata 两个 pool 之后更新下 cinder 密钥的权限 ceph auth caps client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rx pool=p_w_picpaths, allow rwx pool=ssd, allow rwx pool=sata'
将目标卷vol-002备份至远端nfs服务器,然后对已备份至nfs服务器的卷进行恢复操作,恢复过程中nfs服务器宕机,恢复卷的状态一直为‘恢复中’且无法删除,本文记录备份恢复和最终删除的全过程。
日志路径: 服务 路径 认证服务(keystone) /var/log/keystone/keystone.log 镜像服务(glance) /var/log/glance/api.log 镜像服务(glance) /var/log/glance/registry.log 网络服务(neutron) /var/log/neutron/dhcp-agent.log 网络服务(neutron) /var/log/neutron/l3-agent.log 网络服务(neutron) /var/log/neutron/lbaas-agent.log 网络服务(neutron) /var/log/neutron/linuxbridge-agent.log 网络服务(neutron) /var/log/neutron/metadata-agent.log 网络服务(neutron) /var/log/neutron/metering-agent.log 网络服务(neutron) /var/log/neutron/openvswitch-agent.log 网络服务(neutron) /var/log/neutron/server.log 对象存储(swift) /var/log/swift/swift.log 编排服务(heat) /var/log/heat/heat-api.log 编排服务(heat) /var/log/heat/heat-engine.log 编排服务(heat) /var/log/heat/heat-manage.log 计算服务(nova) /var/log/nova/nova-api.log 计算服务(nova) /var/log/nova/nova-cert.log 计算服务(nova) /var/log/nova/nova-compute.log 计算服务(nova) /var/log/nova/nova-conductor.log 计算服务(nova) /var/log/nova/nova-consoleauth.log 计算服务(nova) /var/log/nova/nova-network.log 计算服务(nova) /var/log/nova/nova-manage.log 计算服务(nova) /var/log/nova/nova-scheduler.log 块存储服务(cinder) /var/log/cinder/api.log 块存储服务(cinder) /var/log/cinder/cinder-manage.log 块存储服务(cinder) /var/log/cinder/scheduler.log 块存储服务(cinder) /var/log/cinder/volume.log 界面(dashboard) /var/log/httpd/access_log 界面(dashboard) /var/log/httpd/error_log
作者简介 Openstack迭代很快,半年一次的更新往往会引入新的特性,及原有功能的完善。版本升级成为了一个不可避免的问题。由于openstack升级的复杂性许多公司和团队采用直接迁移至新
配置live-migration 修改/etc/libvirt/libvirtd.conf
[root@controller ~]#mysql -u root -p123456 #创建数据库及访问权限
OpenStack是一种开源的云计算平台,它可以帮助用户构建和管理私有云或公有云环境。在OpenStack中,Ceph是一种广泛使用的分布式存储系统,它可以提供高可用性和可扩展性的存储解决方案。在这篇文章中,我们将介绍如何在OpenStack中使用Ceph作为存储后端的步骤。
我们知道,OpenStack的认证 (authentication) 统一在 keystone 组件中完成,而鉴权 (authorization) 则由具体组件自己实现。
请注意,本文档假设 Ceph 和 OpenStack 环境已经可用,在此基础上,配置 OpenStack 使用 Ceph RBD 作为镜像和卷的后端存储。
LVM 可以创建和管理“逻辑”卷,而不是直接使用物理硬盘。可以让管理员弹性的管理逻辑卷的扩大缩小,操作简单,而不损坏已存储的数据。可以随意将新的硬盘添加到LVM,以直接扩展已经存在的逻辑卷。LVM并不需要重启就可以让内核知道分区的存在。本篇Centos 7 将 lvm 的分割成两个卷组,将 Centos 卷组的大小由49G减少到40G,然后新建一个10G的 cinder-volumes 卷组。
上篇文章我们通过Ansible安装了OpenSDS,本文我们继续深入了解OpenSDS,相信细心的童鞋会发现我们上篇在简短介绍OpenSDS的时候说到了可以纳管本地异构存储,所以我们本文将讲述如何配置多后端,为了充分展现我们选择了本地LVM,OpenStack的Cinder以及Ceph分布式存储作为多后端来测试。
OpenStack的存储组件—Cinder和Swift—让你在你的私有云里构建块和对象的存储系统。Chris Evans对这些技术给出了一些深入的阐述。 在向web规模计算的转型中,虚拟化,x86架构的迁移和DevOps的快速应用这样的关键技术已经转变了整个IT的生态系统。随着部署到IT的系统数量的持续增大,下一个挑战将变成以更有效和高效的方式来编排和管理计算,存储和网络资源,为私有云提供服务。 OpenStack是一个开源的云计算平台项目,最初是由NASA和Rackspace Hosting在2010年联
OpenStack的安装方法好多种啦!总体分手动、自动部署;rdo是RedHat提供的openstack的部署方法,很简单,而且OpenStack的最新版本RedHat貌似是最早出现,目前是i版本!
Kubernetes集群的Pod使用Openstack Cinder作为后端存储,需要部署cinder-csi-plugin
分布式存储 环境 系统 主机 ip 角色 存储 配置 Centos7.7 node1 192.168.150.61 存储节点 两块硬盘分别50G,10G 联网状态,拥有所有主机的hosts记录,关闭防火墙selinux Centos7.7 node2 192.168.150.62 存储节点 两块硬盘分别50G,10
cinder 默认配置下,不管后端是lvm还是ceph 删除卷,会清零整个分区,会导致速度很慢。 日志中看出他是直接用dd 命令去写磁盘的 DEBUG oslo_concurrency.processutils [req-47e7d88d-8bf1-4cb3-980b-26f713579e8e 2b6c47d8328b4270ab643b3ab9870d54 1cc33477a6594fd2a0228ec16c59f4eb - default default] CMD "sudo cinder-rootw
原因:2017年5月4日 星期四 理解Ceph。 说明:阅读书籍。 官方文档:http://docs.ceph.com/docs/master/rbd/rbd-openstack/ 块存储、文件储存、对象存储:http://limu713.blog.163.com/blog/static/15086904201222024847744/ 可靠性、低成本、可扩展 SDS(软件定义存储-softwate defined storage) SDS可以降低存储基础设施的TCO(Total Cost of O
OpenStack Queens 平台于2月28日正式发布,这是该开源云平台的第17版。OpenStack Queens 增加了多项新功能,也优化增强了多项旧功能,包括虚拟 GPU( vGPU )支持和容器集成的改进。几个新项目也在 OpenStack Queens 这一里程碑中露面,包括提供管理硬件和软件加速资源框架的Cyborg 。 Queens 发布了一些强大的面向企业的功能,其中最引人注目的是 Cinder 中的 Multi-Attach 功能。Cinder Multi-Attach 使运维者能够将
组件:nova-api负责接受和响应终端用户有关虚拟机和云硬盘的请求,nova-api是整个nova 的入口。它接受用户请求,将指令发送至消息队列,由相应的服务执行相关的指令消息。
OpenStack与K8S结合主要有两种方案。一是K8S部署在OpenStack平台之上,二是K8S和OpenStack组件集成。
使用 rabbitmqctl 命令,查看队列信息,所包含的信息包括 name,arguments, messages,memory
特别提醒: 本篇文档参考了官网文档(http://docs.openstack.org/),github(https://github.com/mseknibilel/OpenStack-Grizzly-Install-Guide/blob/OVS_MultiNode/OpenStack_Grizzly_Install_Guide.rst),longgeek配置文档( http://www.linuxidc.com/Linux/2013-10/92123.htm ),还有请教了openstack群不少大侠,再此一一谢过!
作者:linhaifeng4573 来源:见文末 一 openstack由来 openstack最早由美国国家航空航天局NASA研发的Nova和Rackspace研发的swift组成。后来以apache许可证授权,旨在为公共及私有云平台建设。openstack主要用来为企业内部实现类似于Amazon EC2和S3的云基础架构服务(Iaas).每6个月更新一次,基本与ubuntu同步,命名是以A-Z作为首字母来的。 二 openstack项目与组件(服务名是项目名的别名) 核心项目
当地时间 7 月 5 日,Meta 旗下的 Instagram 正式发布 Threads,与 Twitter 展开直接竞争。据介绍,Threads 的定位是“用文本分享动态和加入公共对话”。应用上线后,Meta 公司首席执行官马克·扎克伯格“实时”公布 Threads 最新成绩:4 小时,注册用户 500 万;7 小时,注册用户 1000 万;24 小时,注册用户 3000 万;48 小时,注册用户 7000 万。
继上一篇博客介绍了完整部署CentOS7.2+OpenStack+kvm 云平台环境(1)--基础环境搭建,本篇继续讲述后续部分的内容 1 虚拟机相关 1.1 虚拟机位置介绍 openstack上创建的虚拟机实例存放位置是/var/lib/nova/instances 如下,可以查看到虚拟机的ID [root@linux-node2 ~]# nova list +--------------------------------------+---------------+--------+--------
作为提供容器管理服务的组件,Zun允许用户在没有管理服务器或集群参与的情况下快速启动和操作管理容器。它集成了Neutron、Cinder、Keystone等核心OpenStack服务,实现了容器的快速普及。通过这种方式,OpenStack的所有原始网络、存储和识别验证工具都应用于容器系统,使容器能够满足安全性和合规性要求。
[root@controller ~]#source admin-openrc.sh
命令语法 opensatck user show 用户名 样例 openstack user show demo
本篇文档参考了官网文档(http://docs.openstack.org/),github(https://github.com/mseknibilel/OpenStack-Grizzly-Install-Guide/blob/OVS_MultiNode/OpenStack_Grizzly_Install_Guide.rst),longgeek配置文档(http://longgeek.com/2013/03/31/openstack-grizzly-multinode-deployment-in-ubuntu-12-04/),还有请教了openstack群不少大侠,再此一一谢过!
全闪存阵列新兴企业Pure Storage已经正式加入OpenStack这一开源云数据中心操作系统阵营。 OpenStack是一款由IT供应商及用户行业协会共同建立的云计算式操作系统,旨在利用来自数据中心内商用硬件的计算、网络以及存储协调资源池构建起基础设施即服务(简称IaaS)方案。该项目采用模块化机制,其中包含Nova计算服务、Swift对象服务、Cinder块存储、Neutron网络、Horizon仪表板以及其它模块组件。 供应商能够以白金、金牌以及银牌三种成员级别为OpenStack项目提供赞助。目
个人理解nvme能提高存储性能,就像4G比3G快一样,电磁波还是光速,但协议变了,所以快了。rdma应用跑在用户态能减小存储时延,spdk在用户态实现nvme驱动,天然能和rdma结合,而且两者的队列能一一映射,能达到锦上添花的效果。坏处就是kernel upstream实现的nvme代码无法复用,网卡硬件得支持rdma,rdma的库很多,出了问题估计会有找不得北的感觉。
【编者按】本文从OpenStack架构入手,剖析了IaaS的云平台最核心的主要是这三部分:计算、网络、存储,作者指出OpenStack这样一个复杂系统,高可用更涉及到多个层面,只要有一个层面做不到高可用,那么整个OpenStack都没法高可用,随后他从基础服务Mysql和RabbitMQ,Nova、Neutron、Cinder接入与控制服务,网络服务三块探讨了OpenStack各层次的HA设计。 以下为原文: 一、OpenStack架构与HA分析 OpenStack实际上是由众多服务组合而成,它们之间的关联
领取专属 10元无门槛券
手把手带您无忧上云