大家都知道在Hadoop集群开启/关闭Zookeeper集群的时候,需要到不同的节点ZK的bin目录下执行对应的启动/关闭脚本,十分的麻烦。所以就有了以下脚本的产生~
一键开启Zookeeper
vim /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zk_startall.sh
for host in node01 node02 node03
do
ssh $host "source /etc/profile;nohup /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh start >/dev/null 2>&1
&"
echo "$host zk is running"
done
一键关闭Zookeeper
vim /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zk_stopall.sh
for host in node01 node02 node03
do
ssh $host "source /etc/profile;jps |grep QuorumPeerMain |cut -c 1-4 |xargs kill -s 9"
echo "$host zk is stopping"
done
正常情况下,大家只要在一台主节点上添加上述的脚本文件即可~
如果配置了ZK的环境变量,
开启集群的ZK服务只要在命令行输入zk_startall.sh
即可
关闭集群的ZK服务只要在命令行输入zk_stopall.sh
即可
但博主在进行日常维护集群的时候,发现执行zk_stopall.sh的时候,命令行显示如下问题:
最初的我以为又是跟之前解决关闭集群显示no datanode to stop
(详情请见《完美解决Hadoop集群无法正常关闭的问题!》)的情况一样,但当我检查了ZK的配置文件之后发现貌似不是这个问题…
vim /export/servers/zookeeper-3.4.5-cdh5.14.0/conf/zoo.cfg
后面待我仔细检查之前命令行的打印结果,终于发现了本次事故的端倪!
先用jps
查看当前进程
发现zk的进程号66241
怎么与脚本需要kill的进程号6621
的不一致?还正好差了1位?难道是脚本的shell书写出了点问题?
后面当我把zk_stopall.sh
脚本重新打开了,检查了一遍,终于看出来了~
这个脚本获取的是ZK进程号的前四位,而我ZK的端口号又恰好是5位的,所以一直kill不掉对应的进程,所以只需要把脚本中的4改成5,再重新执行脚本就生效了~
总结
经过这样的一次"乌龙事件",我给自己的建议就是: 长点心吧(T▽T)