集群管理主要是包含其中两点:服务状态监听(退出和加入)、master选举。
服务状态监听: 所有机器在父目录下创建临时目录节点,监听父目录节点的子节点变化消息,如果有机器挂掉,这个机器与ZooKeeper的连接断开,这个创建的临时目录节点就会被删除,其他机器收到消息,某个服务下的节点目录被删除,就知道这个某个节点宕机。
如果有新的机器或者服务加入,会在该父目录节点下创建一个临时子节点,所有服务就会收到通知,有新的目录产生。
master选举: master选举是ZooKeeper中最为经典的应用场景了,在分布式环境中,相同的业务应用分布在不同的机器上,有的业务逻辑,通常只需要其中一台服务完成,然后其他服务共享,这样可以大幅度减少重复劳动,提高服务性能,比如 HDFS 中 Active NameNode 的选举。
通常情况下,我们可以选择常见的关系型数据库中的主键特性来实现,在成为Master的机器都想数据库中插入一条相同主键ID的记录,数据库会帮我们进行主键冲突检查,也就是说,只有一台机器能够插入成功,那么我们就认为向数据库中插入数据的机器就是Master
但是当我
《一线大厂Java面试题解析+后端开发学习笔记+最新架构讲解视频+实战项目源码讲义》
【docs.qq.com/doc/DSmxTbFJ1cmN1R2dB】 完整内容开源分享
们的Master机器挂掉了,那么谁能够告诉我们Master挂掉了,关系型数据库是无法通知我们这个事情的,但是ZooKeeper可以做到。
ZooKeeper能够保证在分布式高并发情况下节点的创建一定能够保证全局唯一性,ZooKeeper将会保证客户端无法创建一个已经存在的数据单元节点。也就是说,如果同时有多个客户端请求创建同一个临时节点,那么最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很容易的在分布式环境中进行Master选举了,成功创建该节点的客户端所在的机器就成为了Master,同时企业没有成功创建该节点的客户端,都会在该节点上注册一个子节点变更的Watcher,用于监控当前的Master机器是否存活,一旦发现当前的Master挂了,那么其他客户端将会重新进行Master选举,这样就实现了Master的动态选举。
ZooKeeper集群必须是奇数?
一个ZooKeeper集群通常由一组机器组成,一般是3台以上就可以组成一个可用的ZooKeeper集群了。只要集群中存在超过一半的机器能够正常工作,那么ZooKeeper集群就能正常对外提供服务。
在这里,有一个误区,就是为了让 ZooKeeper 群能够正确的选举出 leader 我们必须要把 ZooKeeper 集群服务器的数量设置为奇数,其实任意台的ZooKeeper都可以正常选举出Leader和运行。
关于集群服务数量中,ZooKeeper官方也给出了奇数的建议,而且基于ZooKeeper 过半以上存活服务可用 的特性,如果ZooKeeper需要对外提供服务,那么至少要保证有过半存活的机器能够正常工作,如果我们想要搭建一台允许挂点一定数量(N)的集群机器,那我们至少要部署 2*N+1台服务器来搭建ZooKeeper集群。
容错率从容错率来讲,我们要保证 过半以上存活的特性
如果我们允许挂掉1台服务,那我们至少要搭建(2*1+1)台服务器,也是就3台服务器(3的半数为1.5,默认向下取整为1,半数以上那就是2)
如果我们允许挂掉2台服务,那我们至少要搭建(2*1+1)台服务器,也是就5台服务器(5的半数为2.5,默认向下取整为2,半数以上那就是3)
同样我们部署六台机器,那么我们遵循过半以上存活服务可用的特性,同样也只能挂掉2台服务器,因为如果挂掉3台,无法遵循服务过半的特性
因此,我们可以从上面条件中看到,对于一个由6台服务器构成的ZooKeeper集群来说,和一个用5台服务器构成的ZooKeeper集群,在容灾能力上没有任何的显著优势,所以ZooKeeper集群 通常会设置成奇数台服务器即可
下载
下载地址:https://zookeeper.apache.org/releases.html
安装
ZooKeeper安装首先需要安装JDK,ZooKeeper的安装步骤在上一篇文章中介绍过,大家感兴趣的可以看一下:https://muxiaonong.blog.csdn.net/article/details/120543298
修改配置
当我们将conf下的 zoo_sample.cfg 文件复制并重命名为 zoo.cfg 文件后,通过 vim zoo.cfg命令对这个文件进行修改:
The number of milliseconds of each ticktickTime=2000
The number of ticks that the initial synchronization phase can takeinitLimit=10
The number of ticks that can pass between sending a request and getting an acknowledgementsyncLimit=5
the directory where the snapshot is stored. do not use /tmp for storage, /tmp here is just example sakes.dataDir=/tmp/zookeeper
the port at which the clients will connectclientPort=2181
the maximum number of client connections. increase this if you need to handle more clients#maxClientCnxns=60
Be sure to read the maintenance section of the administrator guide before turning on autopurge. http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance The number of snapshots to retain in dataDir#autopurge.snapRetainCount=3
Purge task interval in hours Set to “0” to disable auto purge feature#autopurge.purgeInterval=1
Metrics Providers https://prometheus.io Metrics Exporter#metricsProvider.className=org.apache.zookeeper.metrics.prometheus.PrometheusMetricsProvider
#metricsProvider.httpPort=7000
#metricsProvider.exportJvmInfo=true
server.1=192.168.5.129:2888:3888
server.2=192.168.5.130:2888:3888
server.3=192.168.5.131:2888:3888
tickTime: 客户端与服务端或者服务端和服务端之间维持心跳的时间间隔,每隔tickTime时间就会发送一个心跳,通过心跳不仅能够用来监听机器的工作状态,还可以通过心跳来控制follower和Leader的通信时间,默认情况下FL(Follower和Leader)的会话通常是心跳间隔的两倍,单位为毫秒。
initLimit: 集群中的follower服务器与Leader服务器之间的初始连接时能容忍的最多心跳数量
syncLimit: 急群众的follower服务器与leader服务器之间的请求和回答最多能容忍的心跳数量
dataDir: 目录地址,用来存放myid信息和一些版本、日志、服务器唯一ID等信息
clientPort: 监听客户端连接的端口
server.n=127.0.0.1:2888:3888
n:代表的是一个数字,表示这个服务器的标号
127.0.0.1:IP服务器地址
2888:ZooKeeper服务器之间的通信端口
3888:Leader选举的端口
两个需要修改的点:
-
修改的是目录结构(dataDir),不要用它默认的
-
添加server.1 集群服务器配置信息
官方参考文档:https://zookeeper.apache.org/doc/r3.5.8/zookeeperStarted.html
创建服务器ID
在这里我们需要创建一个 myid 的文件,我们需要在 dataDir指定的目录下,手动创建这个目录。
创建命令:mkdir -p /tmp/zookeeper
然后在myid 文件里面添加对应的server.1中的 “1” 这个数字,如下所示
[root@VM-0-7-centos zookeeper]# more myid
1
后面的机器,依次在 dataDir指定的目录下(/tmp/zookeeper),创建 myid 文件,写上相应配置的数字,比如我们在zoo.cfg后面写的是server.1,那么当前myid的文件就写一个数字1就可以了
server.1=192.168.5.129:2888:3888
server.2=192.168.5.130:2888:3888
server.3=192.168.5.131:2888:3888
配置环境变量
为了方便我们可以在全局使用ZooKeeper命令,我们需要配置ZooKeeper的环境变量。
通过命令:vi /etc/profile
添加ZooKeeper的环境变量。
export JAVA_HOME=/usr/local/java/jdk1.8.0_261
export ZK_HOME=/usr/local/java/apache-zookeeper-3.7.0-bin/
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin:$ZK_HOME/bin
变量生效:source /etc/profile
关闭防火墙
在这里大家记得,如果是生产或者正式的,需要开放对应的端口进行通信。
如果是我们测试用的服务器,需要关闭防火墙,不然会有拦截,无法进行服务之间的通信,在这里我们是测试,关闭防火墙即可。
这里我使用的服务是CentOS 7.0,默认使用的是firewall作为防火墙。
防火墙设置查看防火墙状态:firewall-cmd --state
立即关闭防火墙,重启失效:systemctl stop firewalld.service
禁止开机启动防火墙:systemctl disable firewalld.service
端口设置开放2888端口:firewall-cmd --zone=public --add-port=2888/tcp --permanent
关闭2888端口:firewall-cmd --zone=public --remove-port=2888/tcp --permanent
启动服务
查看日志启动命令:zkServer.sh start-foreground
后台启动命令:zkServer.sh start
停止命令:zkServer.sh stop
查看状态命令:zkServer.sh status
我们分别用 zkServer.sh status命令查看节点状态,三台机器中,有两台成为了 follower,一台成为了Leader节点。
使用命名查看ZooKeeper端口情况:netstat -natp | egrep '(2888|3888)'
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)