zookeeper
1.1 zookeeper(分布式协作服务)
1) zookeeper是什么?
zookeeper是一个分布式的,开放源码的分布式应用程序协调服务,是google的chubby一个开源的实现,它是集群的管理者,监视着集群中各个节点的状态根据节点提交的反馈进行下一步合理操作。最终,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
2) zookeeper提供了什么?
1) 文件系统
2) 通知机制
3) zookeeper文件系统
每个子目录项如 nameservice 都被称作为znode,和文件系统一样,我们能够*的增加、删除znode,在一个znode下增加、删除子znode,唯一的不同在于znode是可以存储数据的。
有四种类型的znode:
1) persistent-持久化目录节点:客户端与zookeeper断开连接后,该节点依旧存在。
2) persistent_ sequential-持久化顺序编号目录节点: 客户端与zookeeper断开连接后,该节点依旧存在,只是zookeeper给该节点名称进行顺序编号。
3) ephemeral-临时目录节点 :客户端与zookeeper断开连接后,该节点被删除。
4) ephemeral_ sequential -临时顺序编号目录节点:客户端与zookeeper断开连接后,该节点被删除,只是zookeeper给该节点名称进行顺序编号。
4) zookeeper通知机制
客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、被删除、子目录节点增加删除)时,zookeeper会通知客户端。
5) zookeeper做了什么?
6) zookeeper命名服务
在zookeeper的文件系统里创建一个目录,即有唯一的path。在我们使用tborg无法确定上游程序的部署机器时即可与下游程序约定好path,通过path即能互相探索发现。
7) zookeeper的配置同步管理
程序总是需要配置的,如果程序分散部署在多台机器上,要逐个改变配置就变得困难。现在把这些配置全部放到zookeeper上去,保存在 zookeeper 的某个目录节点中,然后所有相关应用程序对这个目录节点进行监听,一旦配置信息发生变化,每个应用程序就会收到 zookeeper 的通知,然后从 zookeeper 获取新的配置信息应用到系统中就好。
8) zookeeper集群管理
所谓集群管理无在乎两点:是否有机器退出和加入、选举master。
对于第一点,所有机器约定在父目录groupmembers下创建临时目录节点,然后监听父目录节点的子节点变化消息。一旦有机器挂掉,该机器与 zookeeper的连接断开,其所创建的临时目录节点被删除,所有其他机器都收到通知:某个兄弟目录被删除,于是,所有人都知道:它上船了。
新机器加入也是类似,所有机器收到通知:新兄弟目录加入,highcount又有了,对于第二点,我们稍微改变一下,所有机器创建临时顺序编号目录节点,每次选取编号最小的机器作为master就好。
1) zookeeper分布式锁
有了zookeeper的一致性文件系统,锁的问题变得容易。锁服务可以分为两类,一个是保持独占,另一个是控制时序。
对于第一类,我们将zookeeper上的一个znode看作是一把锁,通过createznode的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。用完删除掉自己创建的distribute_lock 节点就释放出锁。
对于第二类, /distribute_lock 已经预先存在,所有客户端在它下面创建临时顺序编号目录节点,和选master一样,编号最小的获得锁,用完删除,依次方便。
9) zookeeper队列管理
两种类型的队列:
a. 同步队列。当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达。在约定目录下创建临时目录节点,监听节点数目是否是我们要求的数目。
b. 按照 fifo 方式进行入队和出队操作:和分布式锁服务中的控制时序场景基本原理一致,入列有编号,出列按编号。
10) 分布式与数据复制
zookeeper作为一个集群提供一致的数据服务,自然,它要在所有机器间做数据复制。
数据复制的好处:
1、容错:一个节点出错,不致于让整个系统停止工作,别的节点可以接管它的工作;
2、提高系统的扩展能力 :把负载分布到多个节点上,或者增加节点来提高系统的负载能力;
3、提高性能:让客户端本地访问就近的节点,提高用户访问速度。
从客户端读写访问的透明度来看,数据复制集群系统分下面两种:
1、写主(writemaster) :对数据的修改提交给指定的节点。读无此限制,可以读取任何一个节点。这种情况下客户端需要对读与写进行区别,俗称读写分离;
2、写任意(write any):对数据的修改可提交给任意的节点,跟读一样。这种情况下,客户端对集群节点的角色与变化透明。
对zookeeper来说,它采用的方式是写任意。通过增加机器,它的读吞吐能力和响应能力扩展性非常好,而写,随着机器的增多吞吐能力肯定下降(这也是它建立observer的原因),而响应能力则取决于具体实现方式,是延迟复制保持最终一致性,还是立即复制快速响应。
11) zookeeper角色
zookeeper服务器有三种节点类型:leader(群首),follower(追随者),observer(观察者)。
a) leader
leader作为整个zookeeper集群的主节点,负责响应所有对zookeeper状态变更的请求。它会将每个状态更新请求进行排序和编号,以便保证整个集群内部消息处理的fifo(先入先出队列)。
zookeeper的请求类型。对于exists,getdata,getchildren等只读请求,收到该请求的zookeeper服务器将会在本地处理,因为由第一讲的zab理论可知,每个服务器看到的名字空间内容都是一致的,无所谓在哪台机器上读取数据,因此如果zookeeper集群的负载是读多写少,并且读请求分布得均衡的话,效率是很高的。对于create,setdata,delete等有写操作的请求,则需要统一转发给leader处理,leader需要决定编号、执行操作,这个过程称为一个事务(transaction)。
事务的执行。zookeeper事务和关系型数据库事务相似之处是都具备原子性,即整个事务(编号+执行)要么一起成功要么一起失败。另外事务还具备幂等性,即对一个事务执行多次,结果永远都是一致的。但zookeeper事务不具备关系型数据库事务的回滚机制,原因是不需要,因为zab协议已经保证消息是严格fifo的,并且只有一个leader实际处理事务。(回忆两阶段提交2pc,之所以需要2pc的原因,归根结底是有不止一个“主”,必须保证这么多“主”看到的结果都是一致的)
leader选举。zab中有三种选举算法,目前默认的版本是fastleaderelection,另两种已经被标记为deprecated。其过程如下:
数据恢复阶段。首先,每个zookeeper服务器先读取当前保存在磁盘的事务数据,从而得知当前自己能看到的最大zxid(由两部分组成:周期(epoch)和计数器(counter)。
首次发送自己的投票值。在读取数据之后,每个zookeeper服务器发送自己提议的leader,这个协议中包含了以下几部分的数据:
1)所选举leader的id,在初始阶段,每台服务器的这个值都是自己的id
2)服务器的最大zxid,因为fifo原则,这个值越大说明该服务器离主越近
3)逻辑时钟的值,也就是epoch,每次选举leader这个值会加1
4)本机在当前选举过程中的状态,有以下几种:looking、following、observing、leading每台服务器将自己的上两种数据发送到集群中的其他服务器,同时也会接收来自其他服务器的这两种数据,此时如果该服务器的状态是在选举阶段(looking状态),那么首先要判断逻辑时钟值,分为以下三种情况:
1) 如果发送过来的逻辑时钟大于目前的逻辑时钟,那么说明这个提议比本机发起的提议更接近最新数据,此时需要更新本机的逻辑时钟值,同时将之前收集到的来自其他服务器的提议清空,因为这些数据已经不再有效了。然后判断是否需要更新当前自己的提议,这里是根据提议的leader id和保存的最大zxid来进行判断的,判断逻辑是:首先看zxid,大者胜出;其次再判断leader id,大者胜出。然后再将自身最新的提议数据广播给其他服务器
2) 发送过来的逻辑时钟小于本机的逻辑时钟,说明对方在一个相对较早的选举进程中,这时只需要将本机的提议发送过去即可
3) 两边的逻辑时钟相同,此时只是调用totalorderpredicate函数判断是否需要更新本机的数据,如果更新了再将自己最新的提议广播出去即可
以上三种情况处理完毕之后,再执行两个判断:
1)判断是不是已经收集到了所有服务器的提议状态,如果是那么根据选举结果设置自己的角色(following还是leader),然后退出选举过程
2)即使没有收集到所有服务器的提议状态,也可以判断一下根据以上过程之后最新的选举leader是不是得到了超过半数以上法定人数的支持,如果是,那么尝试在200ms内(默认)接收一下数据,如果没有新的数据到来,说明大家都已经默认了这个结果,同样也设置角色退出选举过程
如果所接收服务器不在选举状态,也就是在following或者leading状态,做以下两个判断:
1) 如果逻辑时钟相同,将该数据保存到recvset,如果接收服务器处于leading状态,那么将判断是不是有半数以上的服务器选举它,如果是则设置选举状态,退出选举过程
2) 否则这是一条与当前逻辑时钟不符合的消息,说明在另一个选举过程中已经有了选举结果,于是将该选举结果加入到outofelection集合中,再根据outofelection来判断是否可以结束选举,如果可以也保存逻辑时钟,设置选举状态,退出选举过程
b) follower
follower的逻辑就比较简单了。除了响应本服务器上的读请求外,follower还要处理leader的提议,并在leader提交该提议时在本地也进行提交。
另外需要注意的是,leader和follower构成zookeeper集群的法定人数,也就是说,只有他们才参与新leader的选举、响应leader的提议。
c) observer
如果zookeeper集群的读取负载很高,或者客户端多到跨机房,可以设置一些observer服务器,以提高读取的吞吐量。observer和follower比较相似,只有一些小区别:首先observer不属于法定人数,即不参加选举也不响应提议;其次是observer不需要将事务持久化到磁盘,一旦observer被重启,需要从leader重新同步整个名字空间。
12) zookeeper设计目的
1.最终一致性:client不论连接到哪个server,展示给它都是同一个视图,这是zookeeper最重要的性能。
2.可靠性:具有简单、健壮、良好的性能,如果消息被到一台服务器接受,那么它将被所有的服务器接受。
3.实时性:zookeeper保证客户端将在一个时间间隔范围内获得服务器的更新信息,或者服务器失效的信息。但由于网络延时等原因,zookeeper不能保证两个客户端能同时得到刚更新的数据,如果需要最新数据,应该在读数据之前调用sync()接口。
4.等待无关(wait-free):慢的或者失效的client不得干预快速的client的请求,使得每个client都能有效的等待。
5.原子性:更新只能成功或者失败,没有中间状态。
6.顺序性:包括全局有序和偏序两种:全局有序是指如果在一台服务器上消息a在消息b前发布,则在所有server上消息a都将在消息b前被发布;偏序是指如果一个消息b在消息a后被同一个发送者发布,a必将排在b前面。
13) zookeeper工作原理
zookeeper 的核心是原子广播,这个机制保证了各个server之间的同步。实现这个机制的协议叫做zab协议。zab协议有两种模式,它们分别是恢复模式(选主)和广播模式(同步)。当服务启动或者在领导者崩溃后,zab就进入了恢复模式,当领导者被选举出来,且大多数server完成了和 leader的状态同步以后,恢复模式就结束了。状态同步保证了leader和server具有相同的系统状态。
为了保证事务的顺序一致性,zookeeper采用了递增的事务id号(zxid)来标识事务。所有的提议(proposal)都在被提出的时候加上了zxid。实现中zxid是一个64位的数字,它高32位是epoch用来标识leader关系是否改变,每次一个leader被选出来,它都会有一个新的epoch,标识当前属于那个leader的统治时期。低32位用于递增计数。
14) zookeeper 下 server工作状态
每个server在工作过程中有三种状态:
looking:当前server不知道leader是谁,正在搜寻
leading:当前server即为选举出来的leader
following:leader已经选举出来,当前server与之同步
15) zookeeper选主流程(basic paxos)
当leader崩溃或者leader失去大多数的follower,这时候zk进入恢复模式,恢复模式需要重新选举出一个新的leader,让所有的server都恢复到一个正确的状态。zk的选举算法有两种:一种是基于basic paxos实现的,另外一种是基于fast paxos算法实现的。系统默认的选举算法为fast paxos。
1.选举线程由当前server发起选举的线程担任,其主要功能是对投票结果进行统计,并选出推荐的server;
2.选举线程首先向所有server发起一次询问(包括自己);
3.选举线程收到回复后,验证是否是自己发起的询问(验证zxid是否一致),然后获取对方的id(myid),并存储到当前询问对象列表中,最后获取对方提议的leader相关信息(id,zxid),并将这些信息存储到当次选举的投票记录表中;
4.收到所有server回复以后,就计算出zxid最大的那个server,并将这个server相关信息设置成下一次要投票的server;
5.线程将当前zxid最大的server设置为当前server要推荐的leader,如果此时获胜的server获得n/2 + 1的server票数,设置当前推荐的leader为获胜的server,将根据获胜的server相关信息设置自己的状态,否则,继续这个过程,直到leader被选举出来。 通过流程分析我们可以得出:要使leader获得多数server的支持,则server总数必须是奇数2n+1,且存活的server的数目不得少于n+1. 每个server启动后都会重复以上流程。在恢复模式下,如果是刚从崩溃状态恢复的或者刚启动的server还会从磁盘快照中恢复数据和会话信息,zk会记录事务日志并定期进行快照,方便在恢复时进行状态恢复。选主的具体流程图所示:
16) zookeeper选主流程(fast paxos)
fast paxos流程是在选举过程中,某server首先向所有server提议自己要成为leader,当其它server收到提议以后,解决epoch和 zxid的冲突,并接受对方的提议,然后向对方发送接受提议完成的消息,重复这个流程,最后一定能选举出leader。
17) zookeeper同步流程
选完leader以后,zk就进入状态同步过程。
1. leader等待server连接;
2 .follower连接leader,将最大的zxid发送给leader;
3 .leader根据follower的zxid确定同步点;
4 .完成同步后通知follower 已经成为uptodate状态;
5 .follower收到uptodate消息后,又可以重新接受client的请求进行服务了。
18) zookeeper工作流程-leader
1 .恢复数据;
2 .维持与learner的心跳,接收learner请求并判断learner的请求消息类型;
3 .learner的消息类型主要有ping消息、request消息、ack消息、revalidate消息,根据不同的消息类型,进行不同的处理。
ping 消息是指learner的心跳信息;
request消息是follower发送的提议信息,包括写请求及同步请求;
ack消息是 follower的对提议的回复,超过半数的follower通过,则commit该提议;
revalidate消息是用来延长session有效时间。
19) zookeeper工作流程-follower
follower主要有四个功能:
1.向leader发送请求(ping消息、request消息、ack消息、revalidate消息);
2.接收leader消息并进行处理;
3.接收client的请求,如果为写请求,发送给leader进行投票;
4.返回client结果。
follower的消息循环处理如下几种来自leader的消息:
1 .ping消息: 心跳消息;
2 .proposal消息:leader发起的提案,要求follower投票;
3 .commit消息:服务器端最新一次提案的信息;
4 .uptodate消息:表明同步完成;
5 .revalidate消息:根据leader的revalidate结果,关闭待revalidate的session还是允许其接受消息;
6 .sync消息:返回sync结果到客户端,这个消息最初由客户端发起,用来强制得到最新的更新。
20) 为什么zookeeper集群的数目,一般为奇数个?
•leader选举算法采用了paxos协议;
•paxos核心思想:当多数server写成功,则任务数据写成功如果有3个server,则两个写成功即可;如果有4或5个server,则三个写成功即可。
•server数目一般为奇数(3、5、7)如果有3个server,则最多允许1个server挂掉;如果有4个server,则同样最多允许1个server挂掉由此,
我们看出3台服务器和4台服务器的的容灾能力是一样的,所以为了节省服务器资源,一般我们采用奇数个数,作为服务器部署个数。
上一篇: 我姓高
下一篇: 强大的 strace 工具