史上最便捷搭建Zookeeper服务器的方法(推荐)
什么是 zookeeper
zookeeper 是 apache 的一个*项目,为分布式应用提供高效、高可用的分布式协调服务,提供了诸如数据发布/订阅、负载均衡、命名服务、分布式协调/通知和分布式锁等分布式基础服务。由于 zookeeper 便捷的使用方式、卓越的性能和良好的稳定性,被广泛地应用于诸如 hadoop、hbase、kafka 和 dubbo 等大型分布式系统中。
zookeeper 有三种运行模式:单机模式、伪集群模式和集群模式。
- 单机模式:这种模式一般适用于开发测试环境,一方面我们没有那么多机器资源,另外就是平时的开发调试并不需要极好的稳定性。
- 集群模式:一个 zookeeper 集群通常由一组机器组成,一般 3 台以上就可以组成一个可用的 zookeeper 集群了。组成 zookeeper 集群的每台机器都会在内存中维护当前的服务器状态,并且每台机器之间都会互相保持通信。
- 伪集群模式:这是一种特殊的集群模式,即集群的所有服务器都部署在一台机器上。当你手头上有一台比较好的机器,如果作为单机模式进行部署,就会浪费资源,这种情况下,zookeeper允许你在一台机器上通过启动不同的端口来启动多个 zookeeper 服务实例,以此来以集群的特性来对外服务。
zookeeper 的相关知识
- zookeeper 中的角色领导者(leader):负责进行投票的发起和决议,更新系统状态
- 跟随者(follower):用于接收客户端请求并给客户端返回结果,在选主过程中进行投票
- 观察者(observer):可以接受客户端连接,将写请求转发给 leader,但是observer不参加投票的过程,只是为了扩展系统,提高读取的速度。
zookeeper 的数据模型
- 层次化的目录结构,命名符合常规文件系统规范,类似于linux
- 每个节点在zookeeper中叫做znode,并且其有一个唯一的路径标识
- 节点znode可以包含数据和子节点,但是ephemeral类型的节点不能有子节点
- znode中的数据可以有多个版本,比如某一个路径下存有多个数据版本,那么查询这个路径下的数据就需要带上版本
- 客户端应用可以在节点上设置监视器
- 节点不支持部分读写,而是一次性完整读写
zookeeper 的节点特性
zookeeper 节点是生命周期的,这取决于节点的类型。在 zookeeper 中,节点根据持续时间可以分为持久节点(persistent)、临时节点(ephemeral),根据是否有序可以分为顺序节点(sequential)、和无序节点(默认是无序的)。
持久节点一旦被创建,除非主动移除,不然一直会保存在zookeeper中(不会因为创建该节点的客户端的会话失效而消失),临时节点
zookeeper 的应用场景
zookeeper 是一个高可用的分布式数据管理与系统协调框架。基于对 paxos 算法的实现,使该框架保证了分布式环境中数据的强一致性,也正是基于这样的特性,使得 zookeeper 解决很多分布式问题。
值得注意的是,zookeeper 并非天生就是为这些应用场景设计的,都是后来众多开发者根据其框架的特性,利用其提供的一系列api接口(或者称为原语集),摸索出来的典型使用方法。
数据发布与订阅(配置中心)
发布与订阅模型,即所谓的配置中心,顾名思义就是发布者将数据发布到zk节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息,服务式服务框架的服务地址列表等就非常适合使用。
应用中用到的一些配置信息放到zk上进行集中管理。这类场景通常是这样:应用在启动的时候会主动来获取一次配置,同时,在节点上注册一个watcher,这样一来,以后每次配置有更新的时候,都会实时通知到订阅的客户端,从来达到获取最新配置信息的目的。 分布式搜索服务中,索引的元信息和服务器集群机器的节点状态存放在zk的一些指定节点,供各个客户端订阅使用。 分布式日志收集系统。这个系统的核心工作是收集分布在不同机器的日志。收集器通常是按照应用来分配收集任务单元,因此需要在zk上创建一个以应用名作为path的节点p,并将这个应用的所有机器ip,以子节点的形式注册到节点p上,这样一来就能够实现机器变动的时候,能够实时通知到收集器调整任务分配。 系统中有些信息需要动态获取,并且还会存在人工手动去修改这个信息的发问。通常是暴露出接口,例如jmx接口,来获取一些运行时的信息。引入zk之后,就不用自己实现一套方案了,只要将这些信息存放到指定的zk节点上即可。 注意:在上面提到的应用场景中,有个默认前提是:数据量很小,但是数据更新可能会比较快的场景。
负载均衡
这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就须要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡。
命名服务(naming service)
命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等——这些我们都可以统称他们为名字(name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用zk提供的创建节点的api,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。
阿里巴巴集团开源的分布式服务框架dubbo中使用zookeeper来作为其命名服务,维护全局的服务地址列表。在dubbo实现中: 服务提供者在启动的时候,向zk上的指定节点/dubbo/${servicename}/providers
目录下写入自己的url地址,这个操作就完成了服务的发布。 服务消费者启动的时候,订阅/dubbo/${servicename}/providers
目录下的提供者url地址, 并向/dubbo/${servicename} /consumers
目录下写入自己的url地址。 注意,所有向zk上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。
另外,dubbo还有针对服务粒度的监控,方法是订阅/dubbo/${servicename}
目录下所有提供者和消费者的信息。
分布式通知/协调
zookeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对zk上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理。
另一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。 另一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了zk上某些节点的状态,而zk就把这些变化通知给他们注册watcher的客户端,即推送系统,于是,作出相应的推送任务。
另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。
分布式锁
分布式锁,这个主要得益于zookeeper为我们保证了数据的强一致性。锁服务可以分为两类,一个是保持独占,另一个是控制时序。
所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁,通过create znode
的方式来实现。所有客户端都去创建/distribute_lock
节点,最终成功创建的那个客户端也即拥有了这把锁。 控制时序,就是所有视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里/distribute_lock
已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:createmode.ephemeral_sequential
来指定)。zk的父节点(/distribute_lock
)维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。
由于同一节点下子节点名称不能相同,所以只要在某个节点下创建znode,创建成功即表明加锁成功。注册监听器监听此znode,只要删除此znode就通知其他客户端来加锁。创建临时顺序节点:在某个节点下创建节点,来一个请求则创建一个节点,由于是顺序的,所以序号最小的获得锁,当释放锁时,通知下一序号获得锁。
分布式队列
队列方面,简单来说有两种,一种是常规的先进先出队列,另一种是等队列的队员聚齐以后才按照顺序执行。对于第一种的队列和上面讲的分布式锁服务中控制时序的场景基本原理一致,这里就不赘述了。
第二种队列其实是在fifo队列的基础上作了一个增强。通常可以在/queue
这个znode下预先建立一个/queue/num
节点,并且赋值为n(或者直接给/queue赋值n),表示队列大小,之后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务task a,需要在很多子任务完成(或条件就绪)情况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去/tasklist
下建立自己的临时时序节点(createmode.ephemeral_sequential
),当/tasklist
发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。
使用 dokcer-compose 搭建集群
上面我们介绍了关于 zookeeper 有这么多的应用场景,那么接下来我们就先学习如何搭建 zookeeper 集群然后再进行实战上面的应用场景。
文件的目录结构如下:
├── docker-compose.yml
编写 docker-compose.yml 文件
docker-compose.yml
文件内容如下:
version: '3.4' services: zoo1: image: zookeeper restart: always hostname: zoo1 ports: - 2181:2181 environment: zoo_my_id: 1 zoo_servers: server.1=0.0.0.0:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181 zoo2: image: zookeeper restart: always hostname: zoo2 ports: - 2182:2181 environment: zoo_my_id: 2 zoo_servers: server.1=zoo1:2888:3888;2181 server.2=0.0.0.0:2888:3888;2181 server.3=zoo3:2888:3888;2181 zoo3: image: zookeeper restart: always hostname: zoo3 ports: - 2183:2181 environment: zoo_my_id: 3 zoo_servers: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=0.0.0.0:2888:3888;2181
在这个配置文件中,docker 运行了 3 个 zookeeper 镜像,通过 ports 字段分别将本地的 2181, 2182, 2183 端口绑定到对应容器的 2181 端口上。
zoo_my_id
和zoo_servers
是搭建 zookeeper 集群需要的两个环境变量。zoo_my_id
标识服务的 id,为 1-255 之间的整数,必须在集群中唯一。zoo_servers
是集群中的主机列表。
在docker-compose.yml
所在目录下执行docker-compose up
,可以看到启动的日志。
连接 zookeeper
将集群启动起来以后我们可以连接 zookeeper 对其进行节点的相关操作。
首先我们需要将 zookeeper 下载下来。zookeeper 下载地址。将其解压进入其conf
目录中,将zoo_sample .cfg
改成zoo.cfg
配置文件说明
# the number of milliseconds of each tick # ticktime:cs通信心跳数 # zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 ticktime 时间就会发送一个心跳。ticktime以毫秒为单位。 ticktime=2000 # the number of ticks that the initial # synchronization phase can take # initlimit:lf初始通信时限 # 集群中的follower服务器(f)与leader服务器(l)之间初始连接时能容忍的最多心跳数(ticktime的数量)。 initlimit=5 # the number of ticks that can pass between # sending a request and getting an acknowledgement # synclimit:lf同步通信时限 # 集群中的follower服务器与leader服务器之间请求和应答之间能容忍的最多心跳数(ticktime的数量)。 synclimit=2 # the directory where the snapshot is stored. # do not use /tmp for storage, /tmp here is just # example sakes. # datadir:数据文件目录 # zookeeper保存数据的目录,默认情况下,zookeeper将写数据的日志文件也保存在这个目录里。 datadir=/data/soft/zookeeper-3.4.12/data # datalogdir:日志文件目录 # zookeeper保存日志文件的目录。 datalogdir=/data/soft/zookeeper-3.4.12/logs # the port at which the clients will connect # clientport:客户端连接端口 # 客户端连接 zookeeper 服务器的端口,zookeeper 会监听这个端口,接受客户端的访问请求。 clientport=2181 # the maximum number of client connections. # increase this if you need to handle more clients #maxclientcnxns=60 # # be sure to read the maintenance section of the # administrator guide before turning on autopurge. # # http://zookeeper.apache.org/doc/current/zookeeperadmin.html#sc_maintenance # # the number of snapshots to retain in datadir #autopurge.snapretaincount=3 # purge task interval in hours # set to "0" to disable auto purge feature #autopurge.purgeinterval=1 # 服务器名称与地址:集群信息(服务器编号,服务器地址,lf通信端口,选举端口) # 这个配置项的书写格式比较特殊,规则如下: # server.n=yyy:a:b # 其中n表示服务器编号,yyy表示服务器的ip地址,a为lf通信端口,表示该服务器与集群中的leader交换的信息的端口。b为选举端口,表示选举新leader时服务器间相互通信的端口(当leader挂掉时,其余服务器会相互通信,选择出新的leader)。一般来说,集群中每个服务器的a端口都是一样,每个服务器的b端口也是一样。但是当所采用的为伪集群时,ip地址都一样,只能时a端口和b端口不一样。
可以不修改zoo.cfg,默认配置就行,接下来在解压后的 bin 目录中执行命令./zkcli.sh -server 127.0.0.1:2181
就能进行连接了。
welcome to zookeeper!
2020-06-01 15:03:52,512 [myid:] - info [main-sendthread(localhost:2181):clientcnxn$sendthread@1025] - opening socket connection to server localhost/127.0.0.1:2181. will not attempt to authenticate using sasl (unknown error)
jline support is enabled
2020-06-01 15:03:52,576 [myid:] - info [main-sendthread(localhost:2181):clientcnxn$sendthread@879] - socket connection established to localhost/127.0.0.1:2181, initiating session
2020-06-01 15:03:52,599 [myid:] - info [main-sendthread(localhost:2181):clientcnxn$sendthread@1299] - session establishment complete on server localhost/127.0.0.1:2181, sessionid = 0x100001140080000, negotiated timeout = 30000
watcher::
watchedevent state:syncconnected type:none path:null
[zk: 127.0.0.1:2181(connected) 0]
接下来我们可以使用命令查看节点了
使用 ls 命令查看当前 zookeeper 中所包含的内容
命令:ls /
[zk: 127.0.0.1:2181(connected) 10] ls /
[zookeeper] ```
创建了一个新的 znode 节点“ zk ”以及与它关联的字符串
命令:create /zk mydata
[zk: 127.0.0.1:2181(connected) 11] create /zk mydata
created /zk [zk: 127.0.0.1:2181(connected) 12] ls / [zk, zookeeper] [zk: 127.0.0.1:2181(connected) 13] ```
获取znode节点zk
命令:get /zk
[zk: 127.0.0.1:2181(connected) 13] get /zk
mydata czxid = 0x400000008 ctime = mon jun 01 15:07:50 cst 2020 mzxid = 0x400000008 mtime = mon jun 01 15:07:50 cst 2020 pzxid = 0x400000008 cversion = 0 dataversion = 0 aclversion = 0 ephemeralowner = 0x0 datalength = 6 numchildren = 0
```
删除znode节点zk
命令:delete /zk
[zk: 127.0.0.1:2181(connected) 14] delete /zk
[zk: 127.0.0.1:2181(connected) 15] ls / [zookeeper] ```
由于篇幅有限,下篇文章会根据上面提到的 zookeeper 应用场景逐一进行用代码进行实现。
zookeeper 的docker配置文件存放处
zookeeper 的docker配置文件存放处
zookeeper 的docker配置文件存放处
大家可以直接从上面拉取项目,启动rocketmq只需要两步
从github 上面拉取项目在 zookeeper 文件夹中执行docker-compose up
命令
参考文章
http://www.jucaiylzc.cn /2011/10/08/1232/
http://www.dongdongrji.cn /2019/04/25/1_zookeeper%e8%af%a6%e8%a7%a3/
https://www.jintianxuesha.com /cyfonly/p/5626532.html
http://www.hengxuangyul.com .com/docker-zookeeper-cluster/
https://www.qiaoheibpt.com maizitoday.github.io/post/zookeeper%e5%85%a5%e9%97%a8/
总结
到此这篇关于史上最便捷搭建zookeeper服务器的方法的文章就介绍到这了,更多相关zookeeper服务器搭建内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!