学习视频
【尚硅谷】2021新版Zookeeper 3.5.7版本教程
集数:9—19
学习笔记
【Java】学习笔记汇总
文章目录
- 一、集群 *** 作
- 1.1 集群安装
- 1.1.1 集群规划
- 1.1.2 配置服务器
- 1.1.3 配置参数解读
- 1.1.4 集群 *** 作
- 1.2 选举机制(面试重点)
- 1.2.1 第一次启动
- 1.2.2 非第一次启动
- 1.3 ZK集群启动停止脚本
- 二、客户端命令行 *** 作
- 2.1 命令行语法
- 2.2 znode节点数据信息
- 2.3 节点类型(持久/短暂/有序号/无序号)
- 2.4 监听器原理
- 2.5 节点删除与查看
- 三、客户端API *** 作
- 3.1 IDEA环境搭建
- 3.2 创建ZooKeeper客户端
- 3.3 创建子节点
- 3.3 获取子节点并监听节点变化
- 3.5 判断 Znode是否存在
- 四、客户端向服务端写数据流程
虚拟机内安装3个CentOS系统,并按照(【Zookeeper】介绍、安装和参数配置)安装配置好zookeeper。
1.1.2 配置服务器也可以先配置好一个系统,其他系统克隆过来重命名。
配置服务器编号
步骤1:在zookeeper根目录下创建zkData文件夹,并修改配置文件dataDir(上一篇博客介绍过)
步骤2:在zkData目录下创建myid文件
vi myid
在文件中添加server对应的编号(注意:上下不要有空行,左右不要有空格),1、2或3
步骤3:按照步骤2的方法配置其他两台虚拟机(服务器)
开启防火墙端口
需打开防火墙2888和3888端口
步骤1:设置开放的端口号
firewall-cmd --add-service=http --permanent sudo firewall-cmd --add-port=2888/tcp --permanent sudo firewall-cmd --add-port=3888/tcp --permanent
步骤2:重启防火墙
firewall-cmd --reload
步骤3:查看开放端口号
firewall-cmd --list-all
配置zoo.cfg文件
步骤1:重命名
修改zookeeper根目录/conf目录下的 zoo_sample.cfg为zoo.cfg
mv zoo_sample.cfg zoo.cfg
步骤2:打开 zoo.cfg文件
vim zoo.cfg
增加如下配置
server.1=192.168.150.101:2888:3888 server.2=192.168.150.102:2888:3888 server.3=192.168.150.103:2888:38881.1.3 配置参数解读
server.1=192.168.150.101:2888:3888 server.A=B:C:D
- A是一个数字,表示这个是第几号服务器;
集群模式下配置一个文件 myid 这个文件在dataDir目录下,这个文件里面有一个数据就是A的值, Zookeeper启动时读取此文件,拿到里面的数据与 zoo.cfg里面的配置信息比较从而判断到底是哪个 server。
- B是这个服务器的ip地址
- C是这个服务器 Follower与集群中的 Leader服务器交换信息的端口;
- D是 万一集群中的 Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
步骤1:分别启动 Zookeeper
./zkServer.sh start
步骤2:查看状态
./zkServer.sh status
因为当前只启动一个,所以有报错。
后面将陆续启动两个,当全部启动后可看到:
或
Zookeeper选举机制——第一次启动
SID:服务器ID。用来唯一标识一台ZooKeeper集群中的机器,每台机器不能重复,和myid一致。
ZXID:事务ID。ZXID是一个事务ID,用来标识一次服务器状态的变更。在某一时刻,集群中的每台机器的ZXID值不一定完全一致,这和ZooKeeper服务器对于客户端“更新请求”的处理逻辑有关。
Epoch:每个Leader任期的代号。没有Leader时同一轮投票过程中的逻辑时钟值是相同的。每投完一次票这个数据就会增加。
- 服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING;
- 服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息:此时服务器1发现服务器2的myid比自己目前投票推举的(服务器1)大,更改选票为推举服务器2。此时服务器1票数0票,服务器2票数2票,没有半数以上结果,选举无法完成,服务器1,2状态保持LOOKING
- 服务器3启动,发起一次选举。此时服务器1和2都会更改选票为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数,服务器3当选Leader。服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING;
- 服务器4启动,发起一次选举。此时服务器1,2,3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为1票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING;
- 服务器5启动,同4一样当小弟。
- 当ZooKeeper集群中的一台服务器出现以下两种情况之一时,就会开始进入Leader选举:
- 服务器初始化启动。
- 服务器运行期间无法和Leader保持连接。
- 而当一台机器进入Leader选举流程时,当前集群也可能会处于以下两种状态:
- 集群中本来就已经存在一个Leader。
对于第一种已经存在Leader的情况,机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器来说,仅仅需要和Leader机器建立连接,并进行状态同步即可。 - 集群中确实不存在Leader。
假设ZooKeeper由5台服务器组成,SID分别为1、2、3、4、5,ZXID分别为8、8、8、7、7,并且此时SID为3的服务器是Leader。某一时刻,3和5服务器出现故障,因此开始进行Leader选举。
- 集群中本来就已经存在一个Leader。
添加脚本
在第一台服务器的 /home/admin/bin目录下创建脚本:
vim zk.sh
添加内容并保存(文件路径和ip地址要根据自己的情况进行设置):
最外层是一个case,$1 表示输入的第一个参数,可以为 start、stop、status。
内层是一个for循环,遍历三个ip地址。echo显示内容在控制台上。ssh连接ip地址执行字符串内的命令。
# !/bin/bash case in "start"){ for i in 192.168.150.101 192.168.150.102 192.168.150.103 do echo ---------------------- zookeeper $i start ---------------------- ssh $i "/opt/apache-zookeeper-3.5.7-bin/bin/zkServer.sh start" done } ;; "stop"){ for i in 192.168.150.101 192.168.150.102 192.168.150.103 do echo ---------------------- zookeeper $i stop ---------------------- ssh $i "/opt/apache-zookeeper-3.5.7-bin/bin/zkServer.sh stop" done } ;; "status") { for i in 192.168.150.101 192.168.150.102 192.168.150.103 do echo ---------------------- zookeeper $i status ---------------------- ssh $i "/opt/apache-zookeeper-3.5.7-bin/bin/zkServer.sh status" done } ;; esac
增加脚本执行权限:chmod 777 zk.sh
启动zk集群:zk.sh start
停止zk集群:zk.sh start
客户端连接
正常启动(连接本地服务器):./zkCli.sh
连接指定服务器启动:./zkCli.sh -server 其他zk服务器的ip地址:2181
连接指定服务器启动,可能会失败,zookeeper出现
Will not attempt to authenticate using SASL (unknown error)
此时要关闭防火墙
systemctl disable firewalld systemctl stop firewalld.service2.1 命令行语法
查看当前znode中所包含的内容
[zk: 192.168.150.103:2181(CONNECTED) 0] ls / [zookeeper]
查看当前节点详细数据
[zk: 192.168.150.103:2181(CONNECTED) 1] ls -s / [zookeeper]cZxid = 0x0 ctime = Thu Jan 01 08:00:00 CST 1970 mZxid = 0x0 mtime = Thu Jan 01 08:00:00 CST 1970 pZxid = 0x0 cversion = -1 dataVersion = 0 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 0 numChildren = 1
czxid:创建节点的事务 zxid,每次修改ZooKeeper状态都会 产生一个 ZooKeeper事务 ID。事务 ID是 ZooKeeper中所有修改总的次序。每次修改都有唯一的zxid,如果 zxid1小于 zxid2,那么 zxid1在 zxid2之前发生。
ctime:znode被创建的毫秒数(从 1970年开始)
mzxid:znode最后更新的事务 zxid
mtime:znode最后修改的毫秒数(从 1970年开始)
pZxid:znode最后更新的子节点 zxid
cversion:znode 子节点变化号,znode 子节点修改次数
dataversion:znode 数据变化号
aclVersion:znode 访问控制列表的变化号
ephemeralOwner:如果是临时节点,这个是znode 拥有者的session id。如果不是临时节点则是0。
dataLength:znode 的数据长度
numChildren:znode 子节点数量
持久(Persistent):客户端和服务器端断开连接后,创建的节点不删除
短暂(Ephemeral):客户端和服务器端断开连接后,创建的节点自己删除
说明:创建znode时设置顺序标识,znode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护
注意:在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序
(1)持久化目录节点:客户端与Zookeeper断开连接后,该节点依旧存在
(2)持久化顺序编号目录节点:客户端与Zookeeper断开连接后,该节点依旧存在,只是Zookeeper给该节点名称进行顺序编号
(3)临时目录节点:客户端与Zookeeper断开连接后,该节点被删除
(4)临时顺序编号目录节点:客户端与Zookeeper断开连接后, 该节点被删除, 只是Zookeeper给该节点名称进行顺序编号。
分别创建2个普通节点(永久节点 + 不带序号)
[zk: 192.168.150.103:2181(CONNECTED) 0] create /sanguo "diaocan" Created /sanguo [zk: 192.168.150.103:2181(CONNECTED) 1] ls / [sanguo, zookeeper] [zk: 192.168.150.103:2181(CONNECTED) 2] create /sanguo/shuguo "liubei" Created /sanguo/shuguo [zk: 192.168.150.103:2181(CONNECTED) 3] ls / [sanguo, zookeeper] [zk: 192.168.150.103:2181(CONNECTED) 4] ls /sanguo [shuguo]
注意:创建节点时,要赋值
获得节点的值
[zk: 192.168.150.103:2181(CONNECTED) 5] get -s /sanguo diaocan cZxid = 0x30000000a ctime = Wed Nov 10 21:45:07 CST 2021 mZxid = 0x30000000a mtime = Wed Nov 10 21:45:07 CST 2021 pZxid = 0x30000000b cversion = 1 dataVersion = 0 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 7 numChildren = 1
[zk: 192.168.150.103:2181(CONNECTED) 6] get -s /sanguo/shuguo liubei cZxid = 0x30000000b ctime = Wed Nov 10 21:45:42 CST 2021 mZxid = 0x30000000b mtime = Wed Nov 10 21:45:42 CST 2021 pZxid = 0x30000000b cversion = 0 dataVersion = 0 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 6 numChildren = 0
创建带序号的节点(永久节点 + 带序号)
[zk: 192.168.150.103:2181(CONNECTED) 7] create /sanguo/weiguo "caocao" Created /sanguo/weiguo [zk: 192.168.150.103:2181(CONNECTED) 8] ls /sanguo [shuguo, weiguo] [zk: 192.168.150.103:2181(CONNECTED) 9] create -s /sanguo/weiguo/zhangliao "zhangliao" Created /sanguo/weiguo/zhangliao0000000000 [zk: 192.168.150.103:2181(CONNECTED) 10] ls /sanguo/weiguo [zhangliao0000000000] [zk: 192.168.150.103:2181(CONNECTED) 11] create -s /sanguo/weiguo/zhangliao "zhangliao" Created /sanguo/weiguo/zhangliao0000000001 [zk: 192.168.150.103:2181(CONNECTED) 12] create -s /sanguo/weiguo/zhangliao "zhangliao" Created /sanguo/weiguo/zhangliao0000000002 [zk: 192.168.150.103:2181(CONNECTED) 13] ls /sanguo/weiguo [zhangliao0000000000, zhangliao0000000001, zhangliao0000000002]
如果原来没有序号节点 ,序号从0开始依次递增。 如果原节点下已有2个节点,则再排序时从2开始,以此类推。
退出客户端后再连接,节点仍然存在。
创建短暂节点(短暂节点 + 不带序号 or 带序号)
[zk: 192.168.150.103:2181(CONNECTED) 14] create -e /sanguo/wuguo "zhouyu" Created /sanguo/wuguo [zk: 192.168.150.103:2181(CONNECTED) 15] ls /sanguo [shuguo, weiguo, wuguo] [zk: 192.168.150.103:2181(CONNECTED) 16] create -e -s /sanguo/wuguo "zhouyu" Created /sanguo/wuguo0000000003 [zk: 192.168.150.103:2181(CONNECTED) 17] ls /sanguo [shuguo, weiguo, wuguo, wuguo0000000003]
退出客户端后再连接,临时节点会消失。
修改节点数据值
[zk: 192.168.150.103:2181(CONNECTED) 18] set /sanguo/weiguo "simayi" [zk: 192.168.150.103:2181(CONNECTED) 19] get -s /sanguo/weiguo simayi cZxid = 0x30000000c ctime = Wed Nov 10 21:48:32 CST 2021 mZxid = 0x300000012 mtime = Wed Nov 10 21:55:19 CST 2021 pZxid = 0x30000000f cversion = 3 dataVersion = 1 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 6 numChildren = 32.4 监听器原理
客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目录节点增加删除)时,ZooKeeper 会通知客户端。监听机制保证ZooKeeper 保存的任何的数据的任何改变都能快速的响应到监听了该节点的应用程序。
监听原理详解
1)首先要有一个main()线程
2)在main线程中创建Zookeeper客户端,这时就会创建两个线程,一个负责网络连接通信(connet),一个负责监听(listener)。
3)通过connect线程将注册的监听事件发送给Zookeeper。
4)在Zookeeper的注册监听器列表中将注册的监听事件添加到列表中。
5)Zookeeper监听到有数据或路径变化,就会将这个消息发送给listener线程。
6)listener线程内部调用了process()方法。
常见的监听
1)监听节点数据的变化 get path [watch]
2)监听子节点增减的变化 ls path [watch]
节点的值变化监听
客户端1:查看sanguo的值
[zk: localhost:2181(CONNECTED) 0] get -w /sanguo diaocan [zk: localhost:2181(CONNECTED) 1]
客户端2:修改sanguo的值
[zk: localhost:2181(CONNECTED) 0] set /sanguo "xisi"
客户端1:监听到改变
WATCHER:: WatchedEvent state:SyncConnected type:NodeDataChanged path:/sanguo
注意:在客户端2再多次修改/sanguo的值,客户端1上不会再收到监听。因为注册
一次,只能监听一次。想再次监听,需要再次注册。
节点的子节点变化监听(路径变化)
客户端1:
[zk: localhost:2181(CONNECTED) 1] ls -w /sanguo [shuguo, weiguo]
客户端2:
[zk: localhost:2181(CONNECTED) 1] create /sanguo/jin "simayi" Created /sanguo/jin
客户端1:
[zk: localhost:2181(CONNECTED) 1] ls -w /sanguo [shuguo, weiguo]2.5 节点删除与查看
删除节点:delete /sanguo/jin
[zk: localhost:2181(CONNECTED) 0] ls / [sanguo, zookeeper] [zk: localhost:2181(CONNECTED) 1] ls /sanguo [jin, shuguo, weiguo] [zk: localhost:2181(CONNECTED) 2] delete /sanguo/jin [zk: localhost:2181(CONNECTED) 3] ls /sanguo [shuguo, weiguo]
递归删除节点:deleteall /sanguo
[zk: localhost:2181(CONNECTED) 4] deleteall /sanguo [zk: localhost:2181(CONNECTED) 5] ls /sanguo Node does not exist: /sanguo
查看节点状态:stat /sanguo
三、客户端API *** 作前提:保证服务器上Zookeeper集群服务端启动。
3.1 IDEA环境搭建步骤1:新建Mavern工程:zookeeper
步骤2:添加pom文件
junit junitRELEASE org.apache.logging.log4j log4j-core2.8.2 org.apache.zookeeper zookeeper3.5.7
步骤3:拷贝log4j.properties文件到项目根目录
需要在项目的src/main/resources目录下,新建一个文件,命名为log4j.properties,在文件中填入:
log4j.rootLogger=INFO, stdout log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern =%d %p [%c] - %m%n log4j.appender.logfile=org.apache.log4j.FileAppender log4j.appender.logfile.File=target/spring.log log4j.appender.logfile.layout=org.apache.log4j.PatternLayout log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
步骤4:创建包com.zqc.zk
步骤5:创建类zkClient
3.2 创建ZooKeeper客户端connectString为三个zk服务器的ip地址。
public class zkClient{ // 注意:逗号左右不能有空格 private String connectString = "192.168.150.101:2181,192.168.150.102:2181,192.168.150.103:2181"; private int sessionTimeout = 10000; @Test public void init() throws IOException { ZooKeeper zooKeeper = new ZooKeeper(connectString, sessionTimeout, new Watcher() { @Override public void process(WatchedEvent watchedEvent) { } }); } }
运行后显示(不管是否连接成功都会显示,但我设置错误的ip时也不会报错,通过后续的测试验证是否连接成功)
2021-11-11 09:44:10,197 INFO [org.apache.zookeeper.ZooKeeper] - Initiating client connection, connectString=192.168.150.101:2181,192.168.150.102:2181,192.168.150.103:2181 sessionTimeout=2000 watcher=com.zqc.zk.zkClient@6aceb1a5 2021-11-11 09:44:10,239 INFO [org.apache.zookeeper.common.X509Util] - Setting -D jdk.tls.rejectClientInitiatedRenegotiation=true to disable client-initiated TLS renegotiation 2021-11-11 09:44:10,509 INFO [org.apache.zookeeper.ClientCnxnSocket] - jute.maxbuffer value is 4194304 Bytes 2021-11-11 09:44:10,516 INFO [org.apache.zookeeper.ClientCnxn] - zookeeper.request.timeout value is 0. feature enabled=3.3 创建子节点
ip地址只连接了一个,一起连接总会报错,不知道什么原因
public class zkClient { // 注意:逗号左右不能有空格 private final String connectString = "192.168.150.102:2181"; private final int sessionTimeout = 10000; private ZooKeeper zkClient; @Before public void init() throws IOException { zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() { @Override public void process(WatchedEvent watchedEvent) { System.out.println("DataWatcher.process==============" + watchedEvent); } }); System.out.println(zkClient); } @Test public void create() throws InterruptedException, KeeperException { // 参数1:要创建的节点的路径 参数2:节点数据 参数3:节点权限 参数4:节点的类型 String s = zkClient.create("/sanguo1", "caocao".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT); } }
PERSISTENT 永久的
EPHEMERAL 暂时的
报错如下:
org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for /sanguo1
解决方案:
- 超时时间设置长一点:private int sessionTimeout = 10000;
- 关闭zk服务器的防火墙。
- 只连接一个ip
测试:在任意一台zk客户端上查看创建节点情况
[zk: localhost:2181(CONNECTED) 0] ls / [sanguo, sanguo1, zookeeper]3.3 获取子节点并监听节点变化
程序启动,打印当前所有节点。
程序有延迟,将一直运行,如果监听到节点的变化则立刻打印出所有节点。
(在zk客户端界面创建新的节点,idea控制台就会打印出变化后的全部节点)
public class zkClient { // 注意:逗号左右不能有空格 private final String connectString = "192.168.150.101:2181"; private final int sessionTimeout = 10000; private ZooKeeper zkClient; @Before public void init() throws IOException { zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() { @Override public void process(WatchedEvent watchedEvent) { List3.5 判断 Znode是否存在children = null; try { children = zkClient.getChildren("/", true); for (String child : children) { System.out.println(child); } } catch (Exception e) { e.printStackTrace(); } } }); System.out.println(zkClient); } @Test public void getChildren() throws InterruptedException, KeeperException, IOException { List children = zkClient.getChildren("/", true); for (String child : children) { System.out.println(child); } // 延迟 Thread.sleep(Long.MAX_VALUE); } }
@Test public void exist() throws InterruptedException, KeeperException { Stat exists = zkClient.exists("/sanguo2", false); System.out.println(exists==null? "not exist" : "exist"); }四、客户端向服务端写数据流程
写流程之写入请求直接发送给Leader节点
1 client发请求让leader写。
2 leader写完后发请求让follower1写。
3 follower1写完之后告诉leader已经写完了。
4 此时已经有一半以上的服务器写完了,所以leader告诉client已经写完了。
5 leader继续告诉follower2写。
6 follower2写完告诉leader已经写完了。
写流程之写入请求发送给follower节点
1 client发请求让follower1写,follower1没有权限写。
2 follower1将请求转发给leader写。
3 leader写完后,发命令让follower1写。
4 follower1写完之后告诉leader已经写完了。
5 此时已经有一半以上的服务器写完了,所以leader应该要告诉client已经写完了,但是它不能直接跟clinet通讯,所以要让follower1转达。
6 follower1告诉client已经写完了。
7 leader继续告诉follower2写。
8 follower2写完告诉leader已经写完了。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)