背景
一致性哈希算法在1997年由麻省理工学院提出,设计目标是为了解决因特网中的热点(Hot spot)问题,初衷和CARP十分类似。一致性哈希修正了CARP使用的简单哈希算法带来的问题,使得DHT可以在P2P环境中真正得到应用。
我们在使用n台存储设备存储数据的时候,常规做法有将数据根据key%n这样计算放在哪台服务器,但是在扩容的时候就会遇到数据迁移的问题,比如扩容m台服务器,以前是key%n,现在是key%(n+m),导致数据存储的位置需要变化,数据迁移的成本比较大,这个时候我们就引用了一种叫一致性hash的算法 。
hash槽
redis cluster里面使用的方法,一个 Redis Cluster包含16384(0~16383)个哈希槽,存储在RedisCluster中的所有键都会被映射到这些slot中
集群中的每个键都属于这16384个哈希槽中的一个,集群使用公式slot=CRC16(key)/16384来计算key属于哪个槽,其中CRC16(key)语句用于计算key的CRC16校验和。
一致性hash的原理
一致性Hash算法也使用取模的方法,刚才描述的取模法是对服务器的数量进行取模,而一致性Hash算法是对2^32取模
首先,我们把2^32 想象成一个圆,圆上一共有2^32 个点,编号0-2^32-1,这个圆称为hash环,如下:
将服务器的ip或者编号进行hash算法计算取模hash(sever)%2^32 ,计算出服务器处于环上的位置,如下
在存取数据的时候,根据hash算法计算数据在环中的位置hash(data)%2^32 ,再计算离数据最近顺时针方向最近的节点getNodeIndex(data) ,查找到数据存放的节点,如下
遇到故障的时候
假如有服务节点遇到故障,则只需要将该服务节点的数据移入路径上的下一个节点,对原有的节点没有影响
如下图,假设C遇到故障,则C的数据重定到D即可
扩容的时候
假如服务需要扩容的时候,则根据扩容的节点的位置,只需要将该位置路径下一个节点的部分数据移入新节点即可
如下图,新增一个node x,则只需要将C节点中,从b到x段的数据移入x即可,极大的减轻了扩容时对整个系统的影响
虚拟节点
在服务节点较少的时候,容易出现hash环倾斜的情况,即大量数据分布在少部分节点上,如图
为了解决这种情况,引入了虚拟节点,一个实际节点对于多个虚拟节点,hash环上的节点越多,数据被均匀分布的概率就越大,如图
算法实现
手写了一版简单的算法实现仅供理解
缓存节点CacheNode
一致性hash算法
领取专属 10元无门槛券
私享最新 技术干货