RKE部署Kubernetes集群

2022-11-21 19:21:19 浏览数 (1)

安装docker

在各个节点建立自定义账户,使其可以用命令操作docker

代码语言:javascript复制
useradd <user_name>
passwd <user_name>
usermod -aG docker <user_name>
su <user_name>
docker info

配置主节点到各个节点用户的免密登录

代码语言:javascript复制
ssh-keygen
ssh-copy-id <user_name>@<节点IP>

注意,应使用能够操作docker的用户(非root)做免密。在这个例子中使用rancher用户。

下载RKE

RKE下载地址,此处下载更快

代码语言:javascript复制
wget https://github.com/rancher/rke/releases/download/v1.1.3/rke_linux-amd64

K8S安装

准备Kubernetes集群的节点

Kubernetes集群组件在Linux系统上以docker容器的形式运行,您可以使用熟悉的Linux发行版,只要它可以满足Docker和Kubernetes的运行需要。

创建rke配置文件

有两种简单的方法可以创建cluster.yml:

  • 使用我们的最小rke配置cluster.yml并根据将使用的节点更新它;
  • 使用rke config向导式生成配置;

运行rke config配置向导

  • 选项详解
代码语言:javascript复制
./rke_linux-amd64 config

[ ] Cluster Level SSH Private Key Path [~/.ssh/id_rsa]: 使用~/.ssh/id_rsa
[ ] Number of Hosts [1]: 集群主机个数
[ ] SSH Address of host (1) [none]: 主机1地址
[ ] SSH Port of host (1) [22]: SSH端口
[ ] SSH Private Key Path of host (10.180.210.237) [none]: 使用~/.ssh/id_rsa
[ ] SSH User of host (10.180.210.237) [ubuntu]: SSH用户名,这里使用rancher
[ ] Is host (10.180.210.237) a Control Plane host (y/n)? [y]: 是否运行Control Plane
[ ] Is host (10.180.210.237) a Worker host (y/n)? [n]: 是否是worker
[ ] Is host (10.180.210.237) an etcd host (y/n)? [n]: 是否运行etcd
[ ] Override Hostname of host (10.180.210.237) [none]: 是否重设hostname
[ ] Internal IP of host (10.180.210.237) [none]: 主机内部IP
[ ] Docker socket path on host (10.180.210.237) [/var/run/docker.sock]: docker sock路径,使用默认
[ ] SSH Address of host (2) [none]: 主机2的配置,后续配置相同,不再赘述
......
[ ] Network Plugin Type (flannel, calico, weave, canal) [canal]: 网络插件类型
[ ] Authentication Strategy [x509]: 认证策略
[ ] Authorization Mode (rbac, none) [rbac]: 认证模式
[ ] Kubernetes Docker image [rancher/hyperkube:v1.15.5-rancher1]: k8s镜像名
[ ] Cluster domain [cluster.local]: 集群域名
[ ] Service Cluster IP Range [10.43.0.0/16]: 集群内服务IP的范围
[ ] Enable PodSecurityPolicy [n]: pod安全策略
[ ] Cluster Network CIDR [10.42.0.0/16]: 集群网络范围
[ ] Cluster DNS Service IP [10.43.0.10]: 集群DNS的IP
[ ] Add addon manifest URLs or YAML files [no]: 是否增加插件manifest URL或配置文件
  • 此次实验设置【仅供参考】
代码语言:javascript复制
[root@node01 ~]# ./rke_linux-amd64 config
[ ] Cluster Level SSH Private Key Path [~/.ssh/id_rsa]: 
[ ] Number of Hosts [1]: 3
[ ] SSH Address of host (1) [none]: 192.168.1.10
[ ] SSH Port of host (1) [22]: 
[ ] SSH Private Key Path of host (192.168.1.10) [none]: ~/.ssh/id_rsa
[ ] SSH User of host (192.168.1.10) [ubuntu]: rancher
[ ] Is host (192.168.1.10) a Control Plane host (y/n)? [y]: y
[ ] Is host (192.168.1.10) a Worker host (y/n)? [n]: y
[ ] Is host (192.168.1.10) an etcd host (y/n)? [n]: y
[ ] Override Hostname of host (192.168.1.10) [none]: 
[ ] Internal IP of host (192.168.1.10) [none]: 
[ ] Docker socket path on host (192.168.1.10) [/var/run/docker.sock]: 
[ ] SSH Address of host (2) [none]: 192.168.1.20
[ ] SSH Port of host (2) [22]: 
[ ] SSH Private Key Path of host (192.168.1.20) [none]:  ~/.ssh/id_rsa
[ ] SSH User of host (192.168.1.20) [ubuntu]: rancher
[ ] Is host (192.168.1.20) a Control Plane host (y/n)? [y]: y
[ ] Is host (192.168.1.20) a Worker host (y/n)? [n]: y
[ ] Is host (192.168.1.20) an etcd host (y/n)? [n]: y
[ ] Override Hostname of host (192.168.1.20) [none]: 
[ ] Internal IP of host (192.168.1.20) [none]: 
[ ] Docker socket path on host (192.168.1.20) [/var/run/docker.sock]: 
[ ] SSH Address of host (3) [none]: 192.168.1.30
[ ] SSH Port of host (3) [22]: 
[ ] SSH Private Key Path of host (192.168.1.30) [none]:  ~/.ssh/id_rsa
[ ] SSH User of host (192.168.1.30) [ubuntu]: rancher
[ ] Is host (192.168.1.30) a Control Plane host (y/n)? [y]: y
[ ] Is host (192.168.1.30) a Worker host (y/n)? [n]: y
[ ] Is host (192.168.1.30) an etcd host (y/n)? [n]: y
[ ] Override Hostname of host (192.168.1.30) [none]: 
[ ] Internal IP of host (192.168.1.30) [none]: 
[ ] Docker socket path on host (192.168.1.30) [/var/run/docker.sock]: 
[ ] Network Plugin Type (flannel, calico, weave, canal) [canal]: flannel
[ ] Authentication Strategy [x509]: 
[ ] Authorization Mode (rbac, none) [rbac]: 
[ ] Kubernetes Docker image [rancher/hyperkube:v1.18.3-rancher2]: 
[ ] Cluster domain [cluster.local]: 
[ ] Service Cluster IP Range [10.43.0.0/16]: 
[ ] Enable PodSecurityPolicy [n]: 
[ ] Cluster Network CIDR [10.42.0.0/16]: 
[ ] Cluster DNS Service IP [10.43.0.10]: 
[ ] Add addon manifest URLs or YAML files [no]: 

官方示例cluster.yaml

指定名称创建配置文件

代码语言:javascript复制
rke config --name cluster.yml

创建空的cluster.yml

如果需要空的cluster.yml模板,可以使用该–empty参数生成空模板。

代码语言:javascript复制
rke config --empty --name cluster.yml

仅打印cluster.yml

您可以使用–print参数将生成的配置打印到stdout,而不是创建文件。

代码语言:javascript复制
rke config --print

高可用性

RKE支持Kubernetes集群HA方式部署,您可以在cluster.yml文件中指定多个controlplane节点。RKE将在这些节点上部署master组件,并且kubelet配置为默认连接127.0.0.1:6443,这是nginx-proxy代理向所有主节点请求的服务的地址。

证书

从v0.2.0版本起可用

默认情况下,Kubernetes 集群需要用到证书,而 RKE 会自动为所有集群组件生成证书。您也可以使用自定义证书。部署集群后,您可以管理这些自动生成的证书,详情请参考管理自动生成的证书。

RKE部署Kubernetes集群

创建cluster.yml完成后,可以使用简单的命令部署集群。此命令假定该cluster.yml文件与运行该命令的目录位于同一目录中。

代码语言:javascript复制
./rke_linux-amd64 up

在创建Kubernetes集群时会有日志语句。

代码语言:javascript复制
[root@node01 ~]# ./rke_linux-amd64 up
INFO[0000] Running RKE version: v1.1.3                  
INFO[0000] Initiating Kubernetes cluster                
INFO[0000] [certificates] GenerateServingCertificate is disabled, checking if there are unused kubelet certificates 
INFO[0000] [certificates] Generating admin certificates and kubeconfig 
INFO[0000] Successfully Deployed state file at [./cluster.rkestate] 
INFO[0000] Building Kubernetes cluster                  
INFO[0000] [dialer] Setup tunnel for host [192.168.1.30] 
INFO[0000] [dialer] Setup tunnel for host [192.168.1.10] 
INFO[0000] [dialer] Setup tunnel for host [192.168.1.20] 
。。。
INFO[0101] Finished building Kubernetes cluster successfully

当最后一行显示Finished building Kubernetes cluster successfully表示集群已部署完成。作为Kubernetes创建过程的一部分,已创建并编写了一个kubeconfig文件,该文件kube_config_cluster.yml用于与Kubernetes集群进行交互。 如果您使用了不同的cluster.yml文件名,则kube配置文件将以kube_config_<RKE_FILE_NAME>.yml命名

遇到FATA[0337] Failed to get job complete status for job rke-network-plugin-deploy-job in namespace kube-system错误,重新执行一遍./rke_linux-amd64 up即可

保存文件 警告

后期的故障排除和集群升级都需要以下文件

将以下文件的副本保存在安全位置:

cluster.yml:RKE 集群的配置文件。 kube_config_cluster.yml:该集群的Kubeconfig 文件包含了获取该集群所有权限的认证凭据。 cluster.rkestate:Kubernetes 集群状态文件,包含了获取该集群所有权限的认证凭据,使用 RKE v0.2.0 时才会创建这个文件。 Kubernetes集群状态文件 Kubernetes集群状态由Kubernetes集群中的集群配置文件cluster.yml和组件证书组成,由RKE生成,但根据您的RKE版本,集群状态的保存方式不同。

在v0.2.0之前,RKE将Kubernetes集群状态保存为secret。更新状态时,RKE会提取secret,更新/更改状态并保存新secret。 从v0.2.0开始,RKE在集群配置文件cluster.yml的同一目录中创建一个.rkestate文件。该.rkestate文件包含集群的当前状态,包括RKE配置和证书。需要保留此文件以更新集群或通过RKE对集群执行任何操作。

下载kubectl

代码语言:javascript复制
curl -LO https://storage.googleapis.com/kubernetes-release/release/$(curl -s https://storage.googleapis.com/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl
chmod  x ./kubectl
mv ./kubectl /usr/local/bin/kubectl

使用RKE创建Kubernetes集群时,RKE会在本地目录中创建一个包含认证信息的配置文件kube_config_rancher-cluster.yml,以使用kubectl或helm等工具连接到新集群。

您可以将此文件复制到$HOME/.kube/config或者如果您正在使用多个Kubernetes集群,请将KUBECONFIG环境变量设置为路径kube_config_rancher-cluster.yml。

代码语言:javascript复制
mkdir $HOME/.kube/
cp kube_config_cluster.yml $HOME/.kube/config

测试您的连接,看看是否可以返回节点列表。 kubectl get nodes

关于部署报错

RKE部署报错–docker版本不支持

  • 更换版本 docker安装指定版本

0 人点赞