键值存储 ( key-value store ),也称为 K/V 存储或键值数据库,这是一种非关系型数据库。每个值都有一个唯一的 key 关联,也就是我们常说的 键值对。
常见的键值存储有 Redis, Amazon DynamoDB,Microsoft Azure Cosmos DB,Memcached,etcd 等。
你可以在 DB-Engines 网站上看到键值存储的排行。
在这个面试的系统设计环节中,我们需要设计一个键值存储, 要满足下面的几个要求
对于单个服务器来说,开发一个键值存储相对来说会比较简单,一种简单的做法是,把键值都存储在内存中的哈希表中,这样查询速度非常快。但是,由于内存的限制,把所有的数据放到内存中明显是行不通的。
所以,对于热点数据(经常访问的数据)可以加载到内存中,而其他的数据可以存储在磁盘。但是,当数据量比较大时,单个服务器仍然会很快达到容量瓶颈。
分布式键值存储也叫分布式哈希表,把键值分布在多台服务器上。在设计分布式系统时,理解 CAP(一致性,可用性,分区容错性) 定理很重要。
CAP 定理指出,在分布式系统中,不可能同时满足一致性、可用性和分区容错性。让我们认识一下这三个定义:
通常可以用 CAP 的两个特性对键值存储进行分类:
CP(一致性和分区容错性)系统:牺牲可用性的同时支持一致性和分区容错。
AP(可用性和分区容错性)系统:牺牲一致性的同时支持可用性和分区容错。
CA(一致性和可用性)系统:牺牲分区容错性的同时支持一致性和可用性。
由于网络故障是不可避免的,所以在分布式系统中,必须容忍网络分区。
让我们看一些具体的例子,在分布式系统中,为了保证高可用,数据通常会在多个系统中进行复制。假设数据在三个节点 n1, n2, n3 进行复制,如下:
理想情况
在理想的情况下,网络分区永远不会发生。写入 n1 的数据会自动复制到 n2 和 n3,实现了一致性和可用性。
现实世界的分布式系统
在分布式系统中,网络分区是无法避免的,当发生分区时,我们必须在一致性和可用性之间做出选择。
在下图中,n3 出现了故障,无法和 n1 和 n2 通信,如果客户端把数据写入 n1 或 n2,就没办法复制到 n3,就会出现数据不一致的情况。
如果我们选择一致性优先(CP系统),当 n3 故障时, 就必须阻止所有对 n1 和 n2 的写操作,避免三个节点之间的数据不一致。涉及到钱的系统通常有极高的一致性要求。
如果我们选择可用性优先(AP系统),当 n3 故障时,系统仍然可以正常的写入读取,但是可能会返回旧的数据,当网络分区恢复后,数据再同步到 n3 节点。
选择合适的 CAP 是构建分布式键值存储的重要一环。
接下来,我们会讨论构建键值存储的核心组件和技术:
在数据量比较大场景中,把数据都存放在单个服务器明显是不可行的,我们可以进行数据分区,然后保存到多个服务器中。
需要考虑到的是,多个服务器之间的数据应该是均匀分布的,在添加或者删除节点时,需要移动的数据应该尽量少。
一致性哈希非常适合在这个场景中使用,下面的例子中,8台服务器被映射到哈希环上,然后我们把键值的 key 也通过哈希算法映射到环上,然后找到顺时针方向遇到的第一个服务器,并进行数据存储。
使用一致性哈希,在添加和删除节点时,只需要移动很少的一部分数据。
为了实现高可用性和可靠性,一条数据在某个节点写入后,会复制到其他的节点,也就是我们常说的多副本。
那么问题来了,如果我们有 8 个节点,一条数据需要在每个节点上都存储吗?
并不是,副本数和节点数没有直接关系。副本数应该是一个可配置的参数,假如副本数为 3,同样可以借助一致性哈希环,按照顺时针找到 3 个节点,并进行存储,如下
因为键值数据在多个节点上复制,所以我们必须要考虑到数据一致性问题。
Quorum 共识算法可以保证读写操作的一致性,我们先看一下 Quorum 算法中 NWR 的定义。
N = 副本数, 也叫复制因子,在分布式系统中,表示同一条数据有多少个副本。
W = 写一致性级别,表示一个写入操作,需要等待几个节点的写入后才算成功。
R = 读一致性级别,表示读取一个数据时,需要同时读取几个副本数,然后取最新的数据。
如下图,N = 3
注意,W = 1 并不意味着数据只写到一个节点,控制写入几个节点的是 N 副本数。
N = 3 表示,一条数据会写入到 3 个节点,W = 1 表示,只要收到任何节点的第一个写入成功确认消息(ACK)后,就直接返回写入成功。
这里的重点是,对 N、W、R的值进行不同的组合时,会产生不同的一致性效果。
通过 Quorum NWR,可以调节系统一致性的程度。
一致性模型是设计键值存储要考虑的另外一个重要因素,一致性模型定义了数据一致性的程度。
强一致性的通常做法是,当有副本节点因为故障下线时,其他的副本会强制中止写入操作。一致性程度比较高,但是牺牲了系统的高可用。
而 Dynamo 和 Cassandra 都采用了最终一致性,这也是键值存储推荐使用的一致性模型,当数据不一致时,客户端读取多个副本的数据,进行协调并返回数据。
多副本数据复制提供了高可用性,但是多副本可能会存在数据不一致的问题。
版本控制和向量时钟(vector clock )是一个很好的解决方案。向量时钟是一组 [server,version] 数据,它通过版本来检查数据是否发生冲突。
假设向量时钟由 D([S1, v1], [S2, v2], ..., [Sn, vn]) 表示,其中 D 是数据项,v1 是版本计数器,下面是一个例子
注意,向量时钟只能检测到冲突,如何解决,那就需要客户端读取多个副本值自己处理了。
在分布式大型系统中,发生故障是很常见的,接下来,我会介绍常见的故障处理方案。
一种很常见的方案是使用 Gossip 协议,我们看一下它的工作原理:
通过 gossip 协议检测到故障后,为了保证数据一致性,严格的 Quorum 算法会阻止写入操作。而 sloppy quorum 可以在临时故障的情况下,保证系统的可用性。
当网络或者服务器故障导致服务不可用时,会找一个临时的节点进行数据写入,当宕机的节点再次启动后,写入操作会更新到这个节点上,保持数据一致性。
如下图所示,当 s2 不可用时,写入操作暂时由 s3 处理, 在一致性哈希环上顺时针查找到下一个节点就是s3,当 s2 重新上线时,s3 会把数据还给 s2。
数据会在多个节点进行数据复制,假如节点发生故障下线,并且在一段时间后恢复,那么,节点之间的数据如何同步? 全量对比?明显是低效的。我们需要一种高效的方法进行数据对比和验证。
使用 Merkle 树是一个很好的解决方案,Merkle 树也叫做哈希树,这是一种树结构,最下面的叶节点包含数据或哈希值,每个中间节点是它的子节点内容的哈希值,根节点也是由它的子节点内容的哈希值组成。
下面的过程,展示了 Merkle 树是如何构建的。
第 1 步,把键值的存储空间划分为多个桶,一个桶可以存放一定数量的键值。
第 2 步,创建桶之后,使用哈希算法计算每个键的哈希值。
第 3 步,根据桶里面的键的哈希值,计算桶的哈希值。
第 4 步,计算子节点的哈希值,并向上构建树,直到根节点结束。
如果要比较两个 Merkle 树,首先要比较根哈希,如果根哈希一致,表示两个节点有相同的数据。如果根哈希不一致,就遍历匹配子节点,这样可以快速找到不一致的数据,并进行数据同步。
我们已经讨论了设计键值存储要考虑到的技术问题,现在让我们关注一下整体的架构图,如下
这个架构主要有下面几个特点:
下图展示了数据写入到存储节点的过程,主要基于 Cassandra 的架构设计。
在进行数据读取时,它首先检查数据是否在内存缓存中,如果是,就把数据返回给客户端,如下图所示:
如果数据不在内存中,就会从磁盘中检索。我们需要一种高效的方法,找到数据在哪个 SSSTable 中,通常可以使用布隆过滤器来解决这个问题。
[0] System Design Interview Volume 2: https://www.amazon.com/System-Design-Interview-Insiders-Guide/dp/1736049119
[1] Amazon DynamoDB: https://aws.amazon.com/dynamodb/
[2] memcached: https://memcached.org/
[3] Redis: https://redis.io/
[4] Dynamo: Amazon’s Highly Available Key-value Store: https://www.allthingsdistributed.com/files/amazon-dynamo-sosp2007.pdf
[5] Cassandra: https://cassandra.apache.org/
[6] Bigtable: A Distributed Storage System for Structured Data: https://static.googleusercontent.com/media/research.google.com/en//archive/bigtable-osdi06.pdf
[7] Merkle tree: https://en.wikipedia.org/wiki/Merkle_tree
[8] Cassandra architecture: https://cassandra.apache.org/doc/latest/architecture/
[9] SStable: https://www.igvita.com/2012/02/06/sstable-and-log-structured-storage-leveldb/
[10] Bloom filter https://en.wikipedia.org/wiki/Bloom_filter