ZooKeeper伪集群的搭建(Windows)
程序员文章站
2024-01-13 12:41:28
首先下载 zookeeper 地址:https://www.apache.org/dyn/closer.cgi/zookeeper/ 1、下载完成解压后修改文件夹名字为zookeeper1,然后删除conf目录下的zoo_sample.cfg,新建zoo.cfg 2、往zoo.cfg写入 tickT ......
首先下载 zookeeper 地址:https://www.apache.org/dyn/closer.cgi/zookeeper/
1、下载完成解压后修改文件夹名字为zookeeper1,然后删除conf目录下的zoo_sample.cfg,新建zoo.cfg
2、往zoo.cfg写入
- ticktime=2000
- initlimit=10
- synclimit=5
- datadir=d:\\zookeeper\\zookeeper1\\data
- datalogdir=d:\\zookeeper\\zookeeper1\\log
- clientport=2181
- server.1=127.0.0.1:8880:7770
- server.2=127.0.0.1:8881:7771
- server.3=127.0.0.1:8882:7772
- maxclientcnxns = 5
3、data和log需要手动创建,并且在data下新建myid文件编辑写入1
4、复制zookeeper1并重命名为zookeeper2,zookeeper3
5、修改zookeeper2,zookeeper3的zoo.cfg文件中 clientport=2182,clientport=2183(端口只要没占用就可以)
6、修改zookeeper2,zookeeper3的data下的myid文件,内容分别为2,3(集群myid不能重复)
7、最后进入zookeeper1,zookeeper2,zookeeper3的并目录,调用zkserver.cmd
8、然后进入zookeeper1的bin调用zkcli.cmd验证是否成功,
9、如果最后输出[zk: localhost:2181(connecting) 0]则表示成功
配置参数详解
参数名 |
说明 |
clientport | 客户端连接server的端口,即对外服务端口,一般设置为2181吧。 |
datadir | 存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数datalogdir, 事务日志的写性能直接影响zk性能。 |
ticktime | zk中的一个时间单元。zk中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*ticktime。 |
datalogdir |
事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升zk性能。 (no java system property) |
globaloutstandinglimit |
最大请求堆积数。默认是1000。zk运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止server内存溢出,这个请求堆积数还是需要限制下的。 (java system property: zookeeper.globaloutstandinglimit.) |
preallocsize | 预先开辟磁盘空间,用于后续写入事务日志。默认是64m,每个事务日志大小就是64m。如果zk的快照频率较大的话,建议适当减小这个参数。(java system property: zookeeper.preallocsize) |
snapcount | 每进行snapcount次事务日志输出后,触发一次快照(snapshot), 此时,zk会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(java system property: zookeeper.snapcount) |
tracefile | 用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(java system property:? requesttracefile) |
maxclientcnxns | 单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台zk服务器之间的连接数限制,不是针对指定客户端ip,也不是zk集群的连接数限制,也不是单台zk对所有客户端的连接数限制。指定客户端ip的限制策略,这里有一个patch,可以尝试一下: (no java system property) |
clientportaddress | 对于多网卡的机器,可以为每个ip指定不同的监听端口。默认情况是所有ip都监听 clientport指定的端口。 new in 3.3.0 |
minsessiontimeoutmaxsessiontimeout | session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的session超时时间是在2 * ticktime ~ 20 * ticktime 这个范围 new in 3.3.0 |
fsync.warningthresholdms | 事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。(java system property: fsync.warningthresholdms) new in 3.3.4 |
autopurge.purgeinterval | 在上文中已经提到,3.4.0及之后版本,zk提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(no java system property) new in 3.4.0 |
autopurge.snapretaincount | 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(no java system property) new in 3.4.0 |
electionalg | 在之前的版本中, 这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“tcp-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(no java system property) |
initlimit | follower在启动过程中,会从leader同步所有最新数据,然后确定自己能够对外服务的起始状态。leader允许f在 initlimit时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果zk集群的数据量确实很大了,f在启动的时候,从leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(no java system property) |
synclimit | 在运行过程中,leader负责与zk集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果l发出心跳包在synclimit之后,还没有从f那里收到响应,那么就认为这个f已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(no java system property) |
leaderserves | 默认情况下,leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(java system property: zookeeper. leaderserves)。 |
server.x=[hostname]:nnnnn[:nnnnn] |
这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于f和l之间的数据同步和其它通信,第二个端口用于leader选举过程中投票通信。 (no java system property) |
group.x=nnnnn[:nnnnn]weight.x=nnnnn | 对机器分组和权重设置,可以 参见这里(no java system property) |
cnxtimeout | leader选举过程中,打开一次连接的超时时间,默认是5s。(java system property: zookeeper. cnxtimeout) |
zookeeper.digestauthenticationprovider .superdigest |
zk权限设置相关,具体参见 和 《 zookeeper 权限控制》 |
skipacl | 对所有客户端请求都不作acl检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(java system property: zookeeper.skipacl) |
forcesync | 这个参数确定了是否需要在事务日志提交的时候调用 filechannel.force来保证数据完全同步到磁盘。(java system property: zookeeper.forcesync) |
jute.maxbuffer | 每个节点最大数据量,是默认是1m。这个限制必须在server和client端都进行设置才会生效。(java system property: jute.maxbuffer) |
参考:http://www.cnblogs.com/easonjim/p/7483880.html
推荐阅读