解析Redis Cluster原理
一、前言
sentinel集群会对redis的主从架构中的redis实例进行监控,一旦发现了master节点宕机了,就会选举出一个sentinel节点来执行故障转移,从原来的slave节点中选举出一个,将其提升为master节点,然后让其他的节点去复制新选举出来的master节点。
你可能会觉得这样没有问题啊,甚至能够满足我们生产环境的使用需求了,那我们为什么还需要redis cluster呢?
二、为什么需要redis cluster
的确,在数据上,有replication副本做保证;可用性上,master宕机会自动的执行failover。
那问题在哪儿呢?
首先redis sentinel说白了也是基于主从复制,在主从复制中slave的数据是完全来自于master。
假设master节点的内存只有4g,那slave节点所能存储的数据上限也只能是4g。主从复制架构中是读写分离的,我们可以通过增加slave节点来扩展主从的读并发能力,但是写能力和存储能力是无法进行扩展的,就只能是master节点能够承载的上限。
所以,当你只需要存储4g的数据时候的,基于主从复制和基于sentinel的高可用架构是完全够用的。
但是如果当你面临的是海量的数据的时候呢?16g、64g、256g甚至1t呢?现在互联网的业务里面,如果你的体量足够大,我觉得是肯定会面临缓存海量缓存数据的场景的。
这就是为什么我们需要引入redis cluster。
三、redis cluster是什么
知道了为什么需要redis cluster之后,我们就可以来对其一探究竟了。
那什么是redis cluster呢?
很简单,你就可以理解为n个主从架构组合在一起对外服务。redis cluster要求至少需要3个master才能组成一个集群,同时每个master至少需要有一个slave节点。
这样一来,如果一个主从能够存储32g的数据,如果这个集群包含了两个主从,则整个集群就能够存储64g的数据。
我们知道,主从架构中,可以通过增加slave节点的方式来扩展读请求的并发量,那redis cluster中是如何做的呢?虽然每个master下都挂载了一个slave节点,但是在redis cluster中的读、写请求其实都是在master上完成的。
slave节点只是充当了一个数据备份的角色,当master发生了宕机,就会将对应的slave节点提拔为master,来重新对外提供服务。
四、节点负载均衡
知道了什么是redis cluster,我们就可以继续下面的讨论了。
不知道你思考过一个问题没,这么多的master节点。我存储的时候,到底该选择哪个节点呢?一般这种负载均衡算法,会选择哈希算法。哈希算法是怎么做的呢?
首先就是对key计算出一个hash值,然后用哈希值对master数量进行取模。由此就可以将key负载均衡到每一个redis节点上去。这就是简单的哈希算法的实现。
那redis cluster是采取的上面的哈希算法吗?答案是没有。
redis cluster其实采取的是类似于一致性哈希的算法来实现节点选择的。那为什么不用哈希算法来进行实例选择呢?以及为什么说是类似的呢?我们继续讨论。
因为如果此时某一台master发生了宕机,那么此时会导致redis中所有的缓存失效。为什么是所有的?假设之前有3个master,那么之前的算法应该是 hash % 3,但是如果其中一台master宕机了,则算法就会变成 hash % 2,会影响到之前存储的所有的key。而这对缓存后面保护的db来说,是致命的打击。
五、什么是一致性哈希
知道了通过传统哈希算法来实现对节点的负载均衡的弊端,我们就需要进一步了解什么是一致性哈希。
我们上面提过哈希算法是对master实例数量来取模,而一致性哈希则是对2^32取模,也就是值的范围在[0, 2^32 -1]。一致性哈希将其范围抽象成了一个圆环,使用crc16算法计算出来的哈希值会落到圆环上的某个地方。
然后我们的redis实例也分布在圆环上,我们在圆环上按照顺时针的顺序找到第一个redis实例,这样就完成了对key的节点分配。我们举个例子。
假设我们有a、b、c三个redis实例按照如图所示的位置分布在圆环上,此时计算出来的hash值,取模之后位置落在了位置d,那么我们按照顺时针的顺序,就能够找到我们这个key应该分配的redis实例b。同理如果我们计算出来位置在e,那么对应选择的redis的实例就是a。
即使这个时候redis实例b挂了,也不会影响到实例a和c的缓存。
例如此时节点b挂了,那之前计算出来在位置d的key,此时会按照顺时针的顺序,找到节点c。相当于自动的把原来节点b的流量给转移到了节点c上去。而其他原本就在节点a和节点c的数据则完全不受影响。
这就是一致性哈希,能够在我们后续需要新增节点或者删除节点的时候,不影响其他节点的正常运行。
六、虚拟节点机制
但是一致性哈希也存在自身的小问题,例如当我们的redis节点分布如下时,就有问题了。
此时数据落在节点a上的概率明显是大于其他两个节点的,其次落在节点c上的概率最小。这样一来会导致整个集群的数据存储不平衡,ab节点压力较大,而c节点资源利用不充分。为了解决这个问题,一致性哈希算法引入了虚拟节点机制。
virtual-dom
在圆环中,增加了对应节点的虚拟节点,然后完成了虚拟节点到真实节点的映射。假设现在计算得出了位置d,那么按照顺时针的顺序,我们找到的第一个节点就是c #1,最终数据实际还是会落在节点c上。
通过增加虚拟节点的方式,使abc三个节点在圆环上的位置更加均匀,平均了落在每一个节点上的概率。这样一来就解决了上文提到的数据存储存在不均匀的问题了,这就是一致性哈希的虚拟节点机制。
七、redis cluster采用的什么算法
上面提到过,redis cluster采用的是类一致性哈希算法,之所以是类一致性哈希算法是因为它们实现的方式还略微有差别。
例如一致性哈希是对2^32取模,而redis cluster则是对2^14(也就是16384)取模。redis cluster将自己分成了16384个slot(槽位)。通过crc16算法计算出来的哈希值会跟16384取模,取模之后得到的值就是对应的槽位,然后每个redis节点都会负责处理一部分的槽位,就像下表这样。
节点 | 处理槽位 |
---|---|
a | 0 - 5000 |
b | 5001 - 10000 |
c | 10001 - 16383 |
每个redis实例会自己维护一份slot - redis节点的映射关系,假设你在节点a上设置了某个key,但是这个key通过crc16计算出来的槽位是由节点b维护的,那么就会提示你需要去节点b上进行操作。
slot-to-node
八、redis cluster如何做到高可用
不知道你思考过一个问题没,如果redis cluster中的某个master节点挂了,它是如何保证集群自身的高可用的?如果这个时候我们集群需要扩容节点,它该负责哪些槽位呢?我们一个一个问题的来看一下。
8.1、集群如何进行扩容
我们开篇聊过,redis cluster可以很方便的进行横向扩容,那当新的节点加入进来的时候,它是如何获取对应的slot的呢?
答案是通过reshard(重新分片)来实现。reshard可以将已经分配给某个节点的任意数量的slot迁移给另一个节点,在redis内部是由redis-trib负责执行的。你可以理解为redis其实已经封装好了所有的命令,而redis-trib则负责向获取slot的节点和被转移slot的节点发送命令来最终实现reshard。
假设我们需要向集群中加入一个d节点,而此时集群内已经有a、b、c三个节点了。
此时redis-trib会向a、b、c三个节点发送迁移出槽位的请求,同时向d节点发送准备导入槽位的请求,做好准备之后a、b、c这三个源节点就开始执行迁移,将对应的slot所对应的键值对迁移至目标节点d。最后redis-trib会向集群中所有主节点发送槽位的变更信息。
8.2、高可用及故障转移
redis cluster中保证集群高可用的思路和实现和redis sentinel如出一辙
简单来说,针对a节点,某一个节点认为a宕机了,那么此时是主观宕机。而如果集群内超过半数的节点认为a挂了, 那么此时a就会被标记为客观宕机。
一旦节点a被标记为了客观宕机,集群就会开始执行故障转移。其余正常运行的master节点会进行投票选举,从a节点的slave节点中选举出一个,将其切换成新的master对外提供服务。当某个slave获得了超过半数的master节点投票,就成功当选。
cluster-failover
当选成功之后,新的master会执行slaveof no one
来让自己停止复制a节点,使自己成为master。然后将a节点所负责处理的slot,全部转移给自己,然后就会向集群发pong消息来广播自己的最新状态。
按照一致性哈希的思想,如果某个节点挂了,那么就会沿着那个圆环,按照顺时针的顺序找到遇到的第一个redis实例。
而对于redis cluster,某个key它其实并不关心它最终要去到哪个节点,他只关心他最终落到哪个slot上,无论你节点怎么去迁移,最终还是只需要找到对应的slot,然后再找到slot关联的节点,最终就能够找到最终的redis实例了。
那这个pong消息又是什么东西呢?别急,下面就会聊到。
九、简单了解gossip协议
这就是redis cluster各个节点之间交换数据、通信所采用的一种协议,叫做gossip。
gossip: 流言、八卦、小道消息
gossip是在1989年的论文上提出的,我看了一堆资料都说的是1987年发表的,但是文章里的时间明确是1989年1月份发表。
image-20201215100703648
感兴趣的可以去看看epidemic algorithms for replicated . database maintenance,在当时提出gossip主要是为了解决在分布式数据库中,各个副本节点的数据同步问题。但随着技术的发展,gossip后续也被广泛运用于信息扩散、故障探测等等。
redis cluster就是利用了gossip来实现自身的信息扩散的。那使用gossip具体是如何通信的呢?
gossip
很简单,就像图里这样。每个redis节点每秒钟都会向其他的节点发送ping,然后被ping的节点会回一个pong。
十、gossip协议消息类型
redis cluster中,节点之间的消息类型有5种,分别是meet、ping、pong、fail和publish。这些消息分别传递了什么内容呢?我简单总结了一下。
消息类型 | 消息内容 |
---|---|
meet | 给某个节点发送meet消息,请求接收消息的节点加入到集群中 |
ping | 每隔一秒钟,选择5个最久没有通信的节点,发送ping消息,检测对应的节点是否在线;同时还有一种策略是,如果某个节点的通信延迟大于了cluster-node-time的值的一半,就会立即给该节点发送ping消息,避免数据交换延迟过久 |
pong | 当节点接收到meet或者ping消息之后,会回一个pong消息给发送方,代表自己收到了meet或者ping消息。同时,节点也可以主动的通过pong消息向集群中广播自己的信息,让其他节点获取到自己最新的属性,就像完成了故障转移之后新的master向集群发送pong消息一样 |
fail | 用于广播自己的对某个节点的宕机判断,假设当前节点对a节点判断为宕机,就会立即向redis cluster广播自己对于a节点的判断,所有收到消息的节点就会对a节点做标记 |
publish | 用于向指定的channel发送消息,某个节点收到publish消息之后会直接在集群内广播,这样一来,客户端无论连接到任何节点都能够订阅这个channel |
既然redis cluster选择了gossip,那肯定存在一些gossip的优点,我们接下来简单梳理一下。 gossip可以在o(logn) 轮就可以将信息传播到所有的节点,为什么是o(logn)呢?因为每次ping,当前节点会带上自己的信息外加整个cluster的1/10数量的节点信息,一起发送出去。你可以简单的把这个模型抽象为: 你转发了一个特别有意思的文章到朋友圈,然后你的朋友们都觉得还不错,于是就一传十、十传百这样的散播出去了,这就是朋友圈的裂变传播。 当然,gossip仍然存在一些缺点。例如消息可能最终会经过很多轮才能到达目标节点,而这可能会带来较大的延迟。同时由于节点会随机选出5个最久没有通信的节点,这可能会造成某一个节点同时收到n个重复的消息。 总的来说,redis cluster相当于是把redis的主从架构和sentinel集成到了一起,从redis cluster的高可用机制、判断故障转移以及执行故障转移的过程,都和主从、sentinel相关,这也是为什么我在之前的文章里说,主从是redis高可用架构的基石。 以上就是解析redis cluster原理的详细内容,更多关于redis cluster的资料请关注其它相关文章!十一、使用gossip的优劣
优点
描述
扩展性
网络可以允许节点的任意增加和减少,新增加的节点的状态最终会与其他节点一致。
容错性
由于每个节点都持有一份完整元数据,所以任何节点宕机都不会影响gossip的运行
健壮性
与容错性类似,由于所有节点都持有数据,地位平台,是一个去中心化的设计,任何节点都不会影响到服务的运行
最终一致性
当有新的信息需要传递时,消息可以快速的发送到所有的节点,让所有的节点都拥有最新的数据
十二、总结