kubeasz/docs/op/cluster_restore.md

2.1 KiB
Raw Blame History

K8S 集群备份与恢复

虽然 K8S 集群可以配置成多主多节点的高可用的部署还是有必要了解下集群的备份和容灾恢复能力在高可用k8s集群中 etcd集群保存了整个集群的状态因此这里的备份与恢复重点就是

  • 从运行的etcd集群备份数据到磁盘文件
  • 从etcd备份文件恢复数据从而使集群恢复到备份时状态

备份与恢复操作说明

  • 1.首先搭建一个测试集群部署几个测试deployment验证集群各项正常后进行一次备份(假设集群名为k8s-01)
$ ezctl backup k8s-01
# 或者如下手动执行ansible命令
# ansible-playbook -i clusters/k8s-01/hosts -e @clusters/k8s-01/config.yml  playbooks/94.backup.yml

执行完毕可以在部署主机的备份目录下检查备份情况,示例如下:

/etc/kubeasz/clusters/k8s-01/backup/
├── snapshot_202106201205.db
├── snapshot_202106211406.db
└── snapshot.db

其中snapshot.db始终为最近一次备份文件

  • 2.模拟误删除操作(略)

  • 3.恢复集群及验证

可以在 roles/cluster-restore/defaults/main.yml 文件中配置需要恢复的 etcd备份版本从上述备份目录中选取默认使用最近一次备份执行恢复后需要一定时间等待 pod/svc 等资源恢复重建。

$ ezctl restore k8s-01
# 或者如下手动执行ansible命令
# ansible-playbook -i clusters/k8s-01/hosts -e @clusters/k8s-01/config.yml  playbooks/95.restore.yml

如果集群主要组件master/etcd/node等出现不可恢复问题可以尝试使用如下步骤 清理 --> 创建 --> 恢复

$ ezctl clean k8s-01
# 或者如下手动执行ansible命令
# ansible-playbook -i clusters/k8s-01/hosts -e @clusters/k8s-01/config.yml  playbooks/99.clean.yml
$ ezctl setup k8s-01 01
$ ezctl setup k8s-01 02
$ ezctl setup k8s-01 03
$ ezctl setup k8s-01 04
$ ezctl setup k8s-01 05
...
$ ezctl restore k8s-01
# ansible-playbook -i clusters/k8s-01/hosts -e @clusters/k8s-01/config.yml  playbooks/95.restore.yml

参考