猿创征文|ZooKeeper(伪)集群搭建

2022-12-06 14:36:50 浏览数 (1)

前言:zookeeper作为一款分布式协调中间件,其重要性不言而喻,因此需要保证其高可用性。所以一般都会搭建zookeeper集群,今天叶秋带领大家在一台服务器上搭建伪集群。

目录

1、 搭建要求

2、 准备工作

3、 配置集群

 4 启动集群

 5 模拟集群异常


1、 搭建要求

真实的集群是需要部署在不同的服务器上的,但是在我们测试时同时启动很多个虚拟机内存会吃不消,所以我们通常会搭建 伪集群,也就是把所有的服务都搭建在一台虚拟机上,用 端口进行区分

我们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。

2、 准备工作

1、首先必须安装好JDK先。

2、ZooKeeper压缩包上传到服务器,压缩包下载地址: Apache ZooKeeper

3、将Zookeeper解压 ,建立/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到以下三个目录。

/usr/local/zookeeper-cluster/zookeeper-1

/usr/local/zookeeper-cluster/zookeeper-2

/usr/local/zookeeper-cluster/zookeeper-3

创建目录并将ZooKeeper压缩包解压到此目录

mkdir /usr/local/zookeeper-cluster

解压

tar -zxvf apache-zookeeper-3.7.0-bin.tar.gz -C /usr/local/zookeeper-cluster

 将解压后的Zookeeper复制到以下三个目录

cp -r apache-zookeeper-3.7.0-bin /usr/local/zookeeper-cluster/zookeeper-1

cp -r apache-zookeeper-3.7.0-bin /usr/local/zookeeper-cluster/zookeeper-2

cp -r apache-zookeeper-3.7.0-bin /usr/local/zookeeper-cluster/zookeeper-3

 4、创建data目录 ,并且将 conf下zoo_sample.cfg 文件改名为 zoo.cfg

mkdir /usr/local/zookeeper-cluster/zookeeper-1/data

mkdir /usr/local/zookeeper-cluster/zookeeper-2/data

mkdir /usr/local/zookeeper-cluster/zookeeper-3/data

mv /usr/local/zookeeper-cluster/zookeeper-1/conf/ zoo_sample.cfg /usr/local/zookeeper-cluster/zookeeper-1/conf/ zoo.cfg

mv /usr/local/zookeeper-cluster/zookeeper-2/conf/ zoo_sample.cfg /usr/local/zookeeper-cluster/zookeeper-2/conf/ zoo.cfg

mv /usr/local/zookeeper-cluster/zookeeper-3/conf/ zoo_sample.cfg /usr/local/zookeeper-cluster/zookeeper-3/conf/ zoo.cfg

5、 配置每一个Zookeeper 的dataDir 和 clientPort 分别为2182 2183 2184

修改/usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg

vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg

内容:

clientPort=2182

dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data

修改/usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg

vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg

内容:

clientPort=2183

dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data

修改/usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

内容:

clientPort=2184

dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data

3、 配置集群

3.1、在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID

echo 1 >/usr/local/zookeeper-cluster/zookeeper-1/data/myid

echo 2 >/usr/local/zookeeper-cluster/zookeeper-2/data/myid

echo 3 >/usr/local/zookeeper-cluster/zookeeper-3/data/myid

3.2、在每一个zookeeper 的 zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表。集群服务器IP列表如下。

zookeeper-1

vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg

内容:

server.1=192.168.58.150:2881:3881

server.2=192.168.58.150:2882:3882

server.3=192.168.58.150:2883:3883

zookeeper-2

vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg

内容:

server.1=192.168.58.150:2881:3881

server.2=192.168.58.150:2882:3882

server.3=192.168.58.150:2883:3883

zookeeper-3

vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

内容:

server.1=192.168.58.150:2881:3881

server.2=192.168.58.150:2882:3882

server.3=192.168.58.150:2883:3883

4 启动集群

启动集群就是分别启动每个实例。

/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start

/usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start

启动后我们查询一下每个实例的运行状态

先查询第一个服务

/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start

Mode为follower表示是 跟随者(从)

再查询第二个服务Mod 为leader表示是领导者(主)

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

查询第三个为跟随者(从)

/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh status

5 模拟集群异常

1、首先我们先测试如果是从服务器挂掉,会怎么样,把3号服务器停掉。

/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh stop

观察1号和2号

/usr/local/zookeeper-cluster/zookeeper-1/bin/ zkServer.sh status

/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh status

发现状态并没有变化。

由此得出结论,3个节点的集群,有一个从服务器挂掉,集群正常。

2、我们再把1号服务器(从服务器)也停掉。

/usr/local/zookeeper-cluster/zookeeper-1/bin/ zkServer.sh stop

查看2号(主服务器)的状态。

/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh status

发现已经停止运行了。

 由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。

3、我们再次把1号服务器启动起来。

/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start

发现2号服务器又开始正常工作了。而且依然是领导者。

/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status

 4、我们把3号服务器也启动起来。

/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh start

把2号服务器停掉

/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh stop

停掉后观察1号和3号的状态。

/usr/local/zookeeper-cluster/zookeeper-1/bin/ zkServer.sh status

/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh status

 发现新的leader产生了~

由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader 。

5、我们再次测试,当我们把2号服务器重新启动起来启动后,会发生什么?

/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh start

2号服务器会再次成为新的领导吗?

/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh status

/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh status

 我们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。

由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。

本期分享到此为止,关注博主不迷路叶秋学长带你上高速~~

0 人点赞