kubeasz/docs/guide/op/AddMaster.md

2.6 KiB
Raw Blame History

增加 kube-master 节点

注意:目前仅支持按照本项目多主模式(hosts.m-masters.example)部署的k8s集群增加master节点

新增kube-master节点大致流程为:

  • LB节点重新配置 haproxy并重启 haproxy服务
  • 新节点预处理 prepare
  • 新节点安装 docker 服务
  • 新节点安装 kube-master 服务
  • 新节点安装 kube-node 服务
  • 新节点安装网络插件相关
  • 禁止业务 pod调度到新master节点

操作步骤

按照本项目说明首先确保deploy节点能够ssh免密码登陆新增节点然后在deploy节点执行三步:

  • 修改ansible hosts 文件,在 [new-master] 组添加新增的节点;在[lb] 组添加新增master 节点,举例如下:
[lb]
192.168.1.1 LB_IF="ens3" LB_ROLE=backup
192.168.1.2 LB_IF="ens3" LB_ROLE=master
[lb:vars]
master1="192.168.1.1:6443"
master2="192.168.1.2:6443"
master3="192.168.1.5:6443"		# 新增 master节点
...
[new-master]
192.168.1.5 NODE_IP="192.168.1.5"	# 新增 master节点

  • 修改roles/lb/templates/haproxy.cfg.j2 文件增加新增的master节点举例如下
listen kube-master
        bind 0.0.0.0:{{ MASTER_PORT }}
        mode tcp
        option tcplog
        balance source
        server s1 {{ master1 }}  check inter 10000 fall 2 rise 2 weight 1
        server s2 {{ master2 }}  check inter 10000 fall 2 rise 2 weight 1
        server s3 {{ master3 }}  check inter 10000 fall 2 rise 2 weight 1 # 新增 master节点
  • 执行安装脚本
$ cd /etc/ansible && ansible-playbook 21.addmaster.yml

验证

# 在新节点master 服务状态
$ systemctl status kube-apiserver 
$ systemctl status kube-controller-manager
$ systemctl status kube-scheduler

# 查看新master的服务日志
$ journalctl -u kube-apiserver -f

# 查看集群节点,可以看到新 master节点 Ready, 并且禁止了POD 调度功能
$ kubectl get node
NAME           STATUS                     ROLES     AGE       VERSION
192.168.1.1    Ready,SchedulingDisabled   <none>    3h        v1.9.3
192.168.1.2    Ready,SchedulingDisabled   <none>    3h        v1.9.3
192.168.1.3    Ready                      <none>    3h        v1.9.3
192.168.1.4    Ready                      <none>    3h        v1.9.3
192.168.1.5    Ready,SchedulingDisabled   <none>    2h        v1.9.3	# 新增 master节点

后续

上述步骤验证成功确认新节点工作正常后为了方便后续再次添加节点在ansible hosts文件中把 [new-master] 组下的节点全部复制到 [kube-master] 组下,并清空 [new-master] 组中的节点。