NFS高可用(NFS+keepalive+Sersync) 作者: 张首富 背景 NFS这样古老的共享存储的技术,被众多小公司和没钱的公司采用,现在就我司就需要出一套客户的离线版本方案,客户们想数据安全却又不想花钱...,所以我就采用了NFS做后端数据存储, NFS目前数据同步的方式主要两种: 使用Sersync来实现主从同步 第二种借助DRBD实现主从同步 但是这两种方案都只是实现了数据的主从同步,对NFS服务的高可用没有任何实现.../]# df -Th 文件系统 类型 容量 已用 可用 已用% 挂载点 192.168.1.112:/test_nfs nfs4 921G 69G...:/test_nfs /mnt [root@NFS-Client /]# df -Th 文件系统 类型 容量 已用 可用 已用% 挂载点 192.168.1.111...MASTER //实例绑定的网卡 interface enp0s31f6 //组ID,值一样为一个组 virtual_router_id 51 //优先级,优先级高的为
NFS高可用(NFS+keepalive+Sersync) 作者: 张首富 个人博客: www.zhangshoufu.com 背景 NFS这样古老的共享存储的技术,被众多小公司和没钱的公司采用,现在就我司就需要出一套客户的离线版本方案...,对NFS服务的高可用没有任何实现,网上大部分是采用heartbeat来实现,我这边想采用不一样的keepalive来实现这个 网络拓扑 安装前准备 服务器信息: IP 角色/HOSTNAME 192.168.1.110.../]# df -Th 文件系统 类型 容量 已用 可用 已用% 挂载点 192.168.1.112:/test_nfs nfs4 921G 69G...:/test_nfs /mnt [root@NFS-Client /]# df -Th 文件系统 类型 容量 已用 可用 已用% 挂载点 192.168.1.111...MASTER //实例绑定的网卡 interface enp0s31f6 //组ID,值一样为一个组 virtual_router_id 51 //优先级,优先级高的为
简述 1.1 介绍 本方案 NFS 的高可用方案,应用服务器为 Client ,两台文件服务器分别 Master 和 Slave,使用 keepalived 生成一个虚拟 IP,使用 Sersync 进行...Master 与 Slave 之间文件相互同步,确保高可用。...上执行 # 其中/data 为共享的目录,192.168.51.246 为 Client ip,如有多个私有云服务集群可用空格分隔 # 如 echo '/data 192.168.51.246(rw,...上执行 # 其中/data 为共享的目录,192.168.51.246 为 Client ip,如有多个私有云服务集群可用空格分隔 # 如 echo '/data 192.168.51.246(rw,.../bin/sh # 每秒执行一次 step=1 #间隔的秒数,不能大于60 for (( i = 0; i < 60; i=(i+step) )); do ###检查nfs可用性:进程和是否能够挂载
服务器难免会遇到意外宕机的情况,如果服务端出现故障,那么客户端挂载的目录将不可用,如果这个目录是挂载给nginx作为图片资源,那么前端就无法访问了。...启动rpcbind,nfs,keepalived服务: systemctl start rpcbind && systemctl start nfs && systemctl start keepalived...已经可以正常漂移,我们只需要在nfs客户端挂载vip即可。...客户端挂载目录,然后创建如下脚本: 挂载: mount -t nfs -o soft,timeo=10 192.168.0.200:/data/lutixia /mnt/nfs 推荐使用软挂载,默认是硬挂载...-ne 0 ];then umount -l /mnt/nfs && mount -t nfs -o soft,timeo=10 192.168.0.200:/data/lutixia
简述 本篇文章主要是使用 DRBD+HEARTBEAT 来保证 NFS 的高可用。使用 DRBD 来保证主从服务器的文件一致, 使用 HEARTBEAT 来做热切换。 2....7、高可用方案 经过dbrd+heartbeat+NFS的搭建,以及exportfs的简单使用,下面我们就开始做高可用了。...对于NFS高可用,我们需要使用exportfs来关闭共享的目录和打开共享的目录,这样做的好处就需要修改/etc/exports文件了,大大提高了方便性。...达到了高可用的目的。更多关于exportfs的资料,可以参考man exportfs。...[root@nfsclient database]# ls 10 6 7 8 9 lost+found readme 到此NFS高可用就做完了
这里的实验环境还是使用我们上一节的 http://www.linuxidc.com/Linux/2014-03/98673.htm 首先停止节点资源,然后删除 NFS共享存储节点配置: # mkdir.../mydata # vim /etc/exports /mydata 192.168.100.0/24(no_root_squash,rw) # service nfs restart # groupadd...-g 3306 MySQL # useradd -g 3306 -u 3306 -s /sbin/nologin -M mysql # chown -R /mydata 注:这里必需将nfs共享的资源设定为.../usr/local/ # ln -s mysql-5.5.22-linux2.6-i686/ mysql # cd mysql # chown -R root:mysql . # mount -t nfs...测试完必后必需将每个节点的mysql设为开机关闭,且卸载nfs共享存储 添加组与资源,使用上一节的步骤: 至此,我们可以从任何一台mysql客户机登陆我们mysql高可用集群了 测试在nfs服务器上登陆
NFS高可用目的 部署NFS双机热备高可用环境,用作K8S容器集群的远程存储,实现K8S数据持久化。 NFS高可用思路 NFS + Keepalived 实现高可用,防止单点故障。...技术要求 两个NFS节点机器的配置要一致 keepalived监控nfs进程,master的nfs主进程宕掉无法启动时由slave的nfs接管继续工作。...高可用部署记录 一、安装部署NFS服务(Master和Slave两机器同样操作) 1)安装nfs # yum -y install nfs-utils 2)创建nfs共享目录 # mkdir /data...keepalived/nfs_check.sh #!...由于配置了nfs的nfs_check.sh监控脚本,所以当其中一台节点机器上的NFS服务宕停后会自动重启NFS。
接上一篇高可用集群Heartbeat配置实践,下面假设两台Web服务器的网站目录文件都是通过NFS共享存储来更新的,如下拓扑图所示 ?...1、首先配置好NFS存储服务器192.168.31.25,可以参考之前的文章 CentOS下NFS网络文件系统服务的部署 1)mkdir -p /data/web_sharefiles/ 2)echo...192.168.31.0/24(ro,sync,no_root_squash) 4)service rpcbind start;service nfs start ?...mount 192.168.31.25:/data/web_sharefiles /var/www/html service httpd start 测试nfs挂载OK ?...可以看到node1自动挂载nfs ?
DRBD是一种块设备,可以被用于高可用(HA)之中.它类似于一个网络RAID-1功能.当你将数据写入本地文件系统时,数据还将会被发送到网络中另一台主机上.以相同的形式记录在一个文件系统中.本地(主节点)...与远程主机(备节点)的数据可以保证实时同步.当本地系统出现故障时,远程主机上还会保留有一份相同的数据,可以继续使用 Heartbeat来实现高可用性HA群集,已达到实时监控主节点的运行状态,一旦主状态死掉...,处于备份状态的节点立即激活为主状态,实现高可用性 NFS网络共享服务,通过DRBD和Heartbeat来实现NFS的高可用性。...[root@server1 ~]# vim /etc/exports ---添加如下: /data *(rw,sync) [root@server1 ~]# vim /etc/rc.d/init.d/nfs.../ha.d/resource.d/ [root@server1 resource.d]# vim nfsd ---编写资源控制脚本如下: killall -9 nfsd ; /etc/init.d/nfs
DRBD+Heartbeat+NFS安装 实验拓扑 ? 系统环境 1. 系统:Centos5.6X64位 2. 软件:DRBD,Heartbeat,NFS 3. 服务器:三台 4....二.配置NFS 1.安装NFS yum –y install nfs-utils nfs4-acl-tools 2.配置NFS共享目录 vi /etc/exports [root@localhost...,所以这里要关闭nfs开机自动启动 3....这里是针对nfs客户端的,为什么为延迟20秒再挂载nfs?...创建NFS管理脚本 vi /etc/ha.d/resource.d/nfs #!
由于NFS服务是存在单点的,出于对业务在线率和数据安全的保障,可以采用"DRBD+NFS+Keepalived"架构来完成高可用方案部署。...远程客户机使用vip地址挂载NFS 3)当Primary主机发生宕机或NFS挂了的故障时,Secondary主机提权升级为DRBD的主节点,并且VIP资源也会转移过来。.../bin/sh ###检查nfs可用性:进程和是否能够挂载 /sbin/service nfs status &>/dev/null if [ $?.../rpcbind start 挂载NFS [root@huanqiu ~]# mount -t nfs 192.168.1.200:/data /web 如下查看,发现已经成功挂载了NFS [root...这也验证了drbd提供的数据一致性功能(包括文件的打开和修改状态等),在客户端看来,真个切换过程就是"一次nfs重启"(主nfs停,备nfs启)。
mystore ocf:heartbeat:Filesystem params device=192.168.0.13:/mysqldata directory=/var/lib/mysql fstype=nfs...mystore ocf:heartbeat:Filesystem params device=192.168.0.13:/mysqldata directory=/var/lib/mysql fstype=nfs
高可用主要分为三个层次: 1. 底层信息层,实现方式: heartbeat corosync cman 2....资源代理层,实现方式: heartbeat-v1 LSB OCF STONITH 实现高可用,需要配置的内容: 1....环境: 系统:CentOS 6.5 高可用节点:node1 :192.168.0.11 node2 :192.168.0.12 共享存储节点:node3 :192.168.0.13.../mysqldata 2、导出共享目录,配置/etc/exports如下: /mysqldata192.168.0.0/24(rw,no_root_squash) 3、启动nfs...配置haresource,如下: node1 192.168.0.100/24/eth0 Filesystem::192.168.0.13:/mysqldata::/mydata::nfs
RabbitMQ 高可用集群搭建 1 集群简介 1.1 集群架构 当单台 RabbitMQ 服务器的处理消息的能力达到瓶颈时,此时可以通过 RabbitMQ 集群来进行扩展,从而达到提升吞吐量的目的...一个高可用,负载均衡的 RabbitMQ 集群架构应类似下图: 这里对上面的集群架构做一下解释说明: 首先一个基本的 RabbitMQ 集群不是高可用的,虽然集群共享队列,但在默认情况下,消息只会被路由到某一个节点的符合条件的队列上...HAProxy 同时支持四层和七层负载均衡,并基于单一进程的事件驱动模型,因此它可以支持非常高的井发连接数。...此时对外服务的 VIP 依然可用,代表已经成功地进行了故障转移。...juejin.im/post/6844904071183220749 RabbitMQ 官方文档 —— 集群指南:www.rabbitmq.com/clustering.… RabbitMQ 官方文档 —— 高可用镜像队列
redis 高可用,如果是做主从架构部署,那么加上哨兵就可以了,就可以实现,任何一个实例宕机,可以进行主备切换。 所以就有了几个问题? 什么是主从架构,主从如何备份?...什么时候整个集群不可用(cluster_state:fail)?...哨兵用于实现 redis 集群的高可用,本身也是分布式的,作为一个哨兵集群去运行,互相协同工作。...哨兵 + redis 主从的部署架构,是不保证数据零丢失的,只能保证 redis 集群的高可用性。...==怎么保证redis是高并发以及高可用的==? sdown 和 odown 转换机制 sdown 是主观宕机,就一个哨兵如果自己觉得一个 master 宕机了,那么就是主观宕机。
kube-proxy转发到Ingress Controller的pod上,多走一趟路 4、不创建svc,效率最高,也能四层负载的时候不修改pod的template,唯一要注意的是`hostNetwork: true 高可用选择第四种
本篇文章是之前一篇《大话高可用》的高可用心法的案例篇。 说实践之前先说概念。 ...具体实践如下: 架构高可用 交易这边进行在进行重构。将原有的核心交易从职责上划分为交易收单、交易保障和数据中心三个大块。 从高可用上,交易收单要保证实时交易现场的可用。...所以它才是对高可用需要考虑最多的,对MTBF和MTTR都要考虑和权衡。但是在对高可用要求上交易收单和交易保障是基本职责,指标就是稳定、稳定和稳定。...数据中心关乎的用户体验,是可以持续优化的,但是对高可用是有一定容忍度的:比如页面会加载慢,或者第一次加载不了刷新就成功了。...强依赖高可用 比如数据库的密码,不仅是加密的,而且是在中央集群秘钥管理中心统一管理的。中央集群的就会有秘钥获取不到的风险。按照API,如果获取不到则会抛出指定异常。 这是强依赖,需要容灾。
背景 本文记录一些高可用的内容,和数据库在高可用方面的演进过程。 1. 概念 可用性: 即软件系统在一段时间内提供 有用资源 的能力。...高可用性 描述了一个周期内的功能连续可用的绝对程度,可表示为正常运行时间和停机时间之间的关系,如下公式: A = 100 – (100*D/U) 备注:A 表示可用性;D 表示 非计划停机时间;U 表示正常运行时间...如何设计来做到高可用 保证系统高可用,架构设计的核心准则是:冗余 和 故障转移。 单点系统的问题是,挂了就完全不可用了,服务会受影响。如果有冗余备份,其他后备的系统能够顶上,保证服务继续可用。...所以,又往往是通过“自动故障转移”来使得快速切换到备份系统来实现高可用。...常见的互联网分布式架构是: 前端 ---> 反向代理 --> WEB应用 --> 服务 --> 数据库(及缓存) 其中,高可用可涉及到上面每个节点的高可用保障,我们看下数据的高可用架构的演变过程。
生产环境中,后端应用需要支持高吞吐量并且支持高可用来保证服务的稳定,因此需要高可用集群管理。...高可用需要: 至少一个 Nacos(可以是nacos集群) 至少一个 ElasticSearch / mysql(可以是es/msql集群) 至少2个skywalking oap服务; 至少1个UI(UI
今天老大跟我讨论说,没有看到过一篇够全面体系的高可用的文章。谈到高可用,基本都是以偏概全的文章。今晚抽空想了一下这个问题。 ...高可用我另一个更资深老大其实总结的很全面了:别人死我们不死,自己不作死,不被队友搞死。 然后就是怎么别人死我们不死:最好就是别人的东西和我们没关系,就是去依赖。如果实在有依赖呢,那就尽量弱依赖。
领取专属 10元无门槛券
手把手带您无忧上云