diff --git a/content/best-practices/ops/securely-maintain-or-offline-node.md b/content/best-practices/ops/securely-maintain-or-offline-node.md index 87892e0..22081ac 100644 --- a/content/best-practices/ops/securely-maintain-or-offline-node.md +++ b/content/best-practices/ops/securely-maintain-or-offline-node.md @@ -22,7 +22,7 @@ 针对第一点,我们可以使用前面讲的 [Pod 打散调度](../ha/pod-split-up-scheduling.md) 避免单点故障。 -针对第二和第三点,我们可以通过配置 PDB (PodDisruptionBudget) 来避免所有副本同时被删除,驱逐时 K8S 会 "观察" nginx 的当前可用与期望的副本数,根据定义的 PDB 来控制 Pod 删除速率,达到阀值时会等待 Pod 在其它节点上启动并就绪后再继续删除,以避免同时删除太多的 Pod 导致服务不可用或可用性降低,下面给出两个示例。 +针对第二和第三点,我们可以通过配置 PDB (PodDisruptionBudget) 来避免所有副本同时被删除,驱逐时 K8S 会 "观察" 服务的当前可用与期望的副本数,根据定义的 PDB 来控制 Pod 删除速率,达到阀值时会等待 Pod 在其它节点上启动并就绪后再继续删除,以避免同时删除太多的 Pod 导致服务不可用或可用性降低,下面给出两个示例。 示例一 (保证驱逐时 zookeeper 至少有 90% 的副本可用):