手把手教你用ETCD

2021-12-14 09:05:37 浏览数 (1)

一句话概括的话:ETCD 是一个基于 RAFT 的分布式 KV 存储系统。一个 ETCD 集群通常是由 3、5、7 之类奇数个节点组成的,为什么不选择偶数个节点?在集群系统中为了选出 LEADER 节点,至少要有半数以上的节点达成共识,举例说明:

  • 当集群有 3 个节点的时候,至少要有 2 个节点达成共识,最多容灾 1 个节点。
  • 当集群有 4 个节点的时候,至少要有 3 个节点达成共识,最多容灾 1 个节点。
  • 当集群有 5 个节点的时候,至少要有 3 个节点达成共识,最多容灾 2 个节点。

如上可见当节点数是偶数个的时候,系统的容灾能力并没有得到提升,所以节点数一般选择 3、5、7 之类的奇数,至于具体选择多少的话,一般推荐 3 或者 5 比较合适,太少的话系统没有容灾能力,太多的话 LEADER 节点的通信任务会变得繁重,影响性能。

如何搭建一个 ETCD 集群呢?比如在本地部署一个 3 个节点的集群,参考文档操作:

代码语言:javascript复制
CLUSTER="etcd-0=http://127.0.0.1:2380,etcd-1=http://127.0.0.1:3380,etcd-2=http://127.0.0.1:4380"

/usr/local/bin/etcd 
    --name etcd-0 
    --data-dir etcd-0.etcd 
    --listen-client-urls http://127.0.0.1:2379 
    --listen-peer-urls http://127.0.0.1:2380 
    --advertise-client-urls http://127.0.0.1:2379 
    --initial-advertise-peer-urls http://127.0.0.1:2380 
    --initial-cluster ${CLUSTER} &

/usr/local/bin/etcd 
    --name etcd-1 
    --data-dir etcd-1.etcd 
    --listen-client-urls http://127.0.0.1:3379 
    --listen-peer-urls http://127.0.0.1:3380 
    --advertise-client-urls http://127.0.0.1:3379 
    --initial-advertise-peer-urls http://127.0.0.1:3380 
    --initial-cluster ${CLUSTER} &

/usr/local/bin/etcd 
    --name etcd-2 
    --data-dir etcd-2.etcd 
    --listen-client-urls http://127.0.0.1:4379 
    --listen-peer-urls http://127.0.0.1:4380 
    --advertise-client-urls http://127.0.0.1:4379 
    --initial-advertise-peer-urls http://127.0.0.1:4380 
    --initial-cluster ${CLUSTER} &

集群运行起来后,可以通过如下命令来确认状态是否正常:

代码语言:javascript复制
shell> etcdctl member list -w table
 ------------------ --------- -------- ----------------------- ----------------------- ------------ 
|        ID        | STATUS  |  NAME  |      PEER ADDRS       |     CLIENT ADDRS      | IS LEARNER |
 ------------------ --------- -------- ----------------------- ----------------------- ------------ 
| b71f75320dc06a6c | started | etcd-0 | http://127.0.0.1:2380 | http://127.0.0.1:2379 |      false |
| d07d5325fff892c1 | started | etcd-1 | http://127.0.0.1:3380 | http://127.0.0.1:3379 |      false |
| b7bacd4212cc9323 | started | etcd-2 | http://127.0.0.1:4380 | http://127.0.0.1:4379 |      false |
 ------------------ --------- -------- ----------------------- ----------------------- ------------ 

shell> etcdctl endpoint status --cluster -w table
 ----------------------- ------------------ --------- --------- ----------- ------------ ----------- ------------ -------------------- -------- 
|       ENDPOINT        |        ID        | VERSION | DB SIZE | IS LEADER | IS LEARNER | RAFT TERM | RAFT INDEX | RAFT APPLIED INDEX | ERRORS |
 ----------------------- ------------------ --------- --------- ----------- ------------ ----------- ------------ -------------------- -------- 
| http://127.0.0.1:2379 | b71f75320dc06a6c |  3.4.10 |   25 kB |     false |      false |         2 |          8 |                  8 |        |
| http://127.0.0.1:3379 | d07d5325fff892c1 |  3.4.10 |   25 kB |      true |      false |         2 |          8 |                  8 |        |
| http://127.0.0.1:4379 | b7bacd4212cc9323 |  3.4.10 |   25 kB |     false |      false |         2 |          8 |                  8 |        |
 ----------------------- ------------------ --------- --------- ----------- ------------ ----------- ------------ -------------------- -------- 

虽然在本地部署 ETCD 集群很简单,但是在 K8S 上部署 ETCD 集群的话,往往会复杂很多,网上能找到一些别人共享的部署脚本,估计大家看了会疯掉。难点主要在于当我们在 K8S 上部署 ETCD 集群的时候,出于可伸缩性的考虑,一般不会采用固定 IP 的做法,也就是说节点的 IP 是无法事先确定的,而启动 ETCD 集群的时候又需要确定各个接入的节点(initial-cluster),于是产生了矛盾。好在作为一个有状态服务(StatefulSet),可以使用 Headless service 为每一个 POD 提供一个稳定的并且唯一的网络标识,也就是内网域名:「(statefulset)-(ordinal).(service).(namespace).svc.cluster.local」,当交互双方在同一个 namespace 下的话,甚至可以简写成「(statefulset)-(ordinal).

  • $(statefulset) 是 StatefulSet 的名字。
  • $(ordinal) 是 Pod 的序号,从 0 到 N-1。
  • $(service) 是 Service 的名字。
  • $(namespace) 是服务所在的 namespace。

虽然每次部署的时候,节点 IP 都可能会变,但是节点的内网域名是不会变的,并且它会自动解析到对应的 IP 上,了解了这些,我们就可以编写自己的 K8S 脚本了:

代码语言:javascript复制
apiVersion: v1
kind: Service
metadata:
  name: etcd
  namespace: default
spec:
  clusterIP: None
  publishNotReadyAddresses: true
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: etcd
  namespace: default
spec:
  serviceName: etcd
  replicas: 3
  template:
    spec:
      dnsPolicy: ClusterFirst
      containers:
      - name: etcd
        command:
        - sh
        - -c
        - |
          CLUSTER=""

          for i in $(seq 0 3); do
            CLUSTER=${CLUSTER}${CLUSTER: ,}etcd-${i}=http://etcd-${i}.etcd:2380
          done

          exec /usr/local/bin/etcd 
            --name ${HOSTNAME} 
            --data-dir /var/run/etcd/default.etcd 
            --listen-client-urls http://0.0.0.0:2379 
            --listen-peer-urls http://0.0.0.0:2380 
            --advertise-client-urls http://${HOSTNAME}.etcd:2379 
            --initial-advertise-peer-urls http://${HOSTNAME}.etcd:2380 
            --initial-cluster ${CLUSTER}

友情提示:如上脚本非完整代码,此外,其中有几个需要留意的配置,分别是:

  • clusterIP: None:表示是一个 Headless service。
  • publishNotReadyAddresses: true:不管 POD 是否准备就绪,都发布内网域名。
  • dnsPolicy: ClusterFirst:请求会优先在集群所在域查询,如此内网域名才会生效。

掌握了前面说的内容之后,独立部署一个 ETCD 集群应该问题不大了,不过如果是在外网部署的话,安全起见,最好学习 TLS 相关知识,官方文档不容错过,其中有一个关于使用 cfssl 生成自签名证书的例子,此外,强烈建议多看看「TLS完全指南」,里面有关于安全etcd机群的精彩描述。

最后,再安利一下 etcd web ui 方面比较出色的工具:etcdkeeper,收工。

0 人点赞