kubernetes-guide/content/best-practices/autoscaling/hpa-velocity.md

260 lines
11 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 根据业务场景调节 HPA 扩缩容速率
## HPA v2beta2 版本开始支持调节扩缩容速率
在 K8S 1.18 之前HPA 扩缩容是无法调整速率的:
1. 对于缩容,由 `kube-controller-manager``--horizontal-pod-autoscaler-downscale-stabilization-window` 参数控制缩容时间窗口,默认 5 分钟,即负载减小后至少需要等 5 分钟才会缩容。
2. 对于扩容,由 hpa controller 固定的算法、硬编码的常量因子来控制扩容速度,无法自定义。
这样的设计逻辑导致用户无法自定义 HPA 的扩缩容速率,而不同的业务场景对于扩容容灵敏度要求可能是不一样的,比如:
1. 对于有流量突发的关键业务,在需要的时候应该快速扩容 (即便可能不需要,以防万一),但缩容要慢 (防止另一个流量高峰)。
2. 处理关键数据的应用,数据量飙升时它们应该尽快扩容以减少数据处理时间,数据量降低时应尽快缩小规模以降低成本,数据量的短暂抖动导致不必要的频繁扩缩是可以接受的。
3. 处理常规数据/网络流量的业务,不是很重要,它们可能会以一般的方式扩大和缩小规模,以减少抖动。
HPA 在 K8S 1.18 迎来了一次更新,在之前 v2beta2 版本上新增了扩缩容灵敏度的控制,不过版本号依然保持 v2beta2 不变。
## 原理与误区
HPA 在进行扩缩容时,先是由固定的算法计算出期望副本数:
```txt
期望副本数 = ceil[当前副本数 * (当前指标 / 期望指标)]
```
其中 `当前指标 / 期望指标` 的比例如果接近 1 (在容忍度范围内,默认为 0.1,即比例在 0.9~1.1 之间),则不进行伸缩,避免抖动导致频繁扩缩容。
> 容忍度是由 `kube-controller-manager` 参数 `--horizontal-pod-autoscaler-tolerance` 决定,默认是 0.1,即 10%。
本文要介绍的扩缩容速率调节,不是指要调整期望副本数的算法,它并不会加大或缩小扩缩容比例或数量,仅仅是控制扩缩容的速率,实现的效果是: 控制 HPA 在 XX 时间内最大允许扩容/缩容 XX 比例/数量的 Pod。
## API 版本选择v2beta2 与 v2
如果你的 Kubernetes 集群版本在 1.18~1.22 之间HPA 的 API 版本使用 `autoscaling/v2beta2`1.23 之后的集群版本就使用 `autoscaling/v2`
## 如何使用
这次更新实际就是在 HPA Spec 下新增了一个 `behavior` 字段,下面有 `scaleUp``scaleDown` 两个字段分别控制扩容和缩容的行为,具体可参考 [官方 API 文档](https://kubernetes.io/docs/reference/generated/kubernetes-api/v1.24/#hpascalingrules-v2beta2-autoscaling)。
使用示例:
```yaml showLineNumbers
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
name: web
spec:
minReplicas: 1
maxReplicas: 1000
metrics:
- resource:
name: cpu
target:
type: Utilization
averageUtilization: 60
type: Resource
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: web
# highlight-start
behavior: # 这里是重点
scaleDown:
stabilizationWindowSeconds: 300 # 需要缩容时,先观察 5 分钟,如果一直持续需要缩容才执行缩容
policies:
- type: Percent
value: 100 # 允许全部缩掉
periodSeconds: 15
scaleUp:
stabilizationWindowSeconds: 0 # 需要扩容时,立即扩容
policies:
- type: Percent
value: 100
periodSeconds: 15 # 每 15s 最大允许扩容当前 1 倍数量的 Pod
- type: Pods
value: 4
periodSeconds: 15 # 每 15s 最大允许扩容 4 个 Pod
selectPolicy: Max # 使用以上两种扩容策略中算出来扩容 Pod 数量最大的
# highlight-end
```
* 以上 `behavior` 配置是默认的,即如果不配置,会默认加上。
* `scaleUp` 和 `scaleDown` 都可以配置1个或多个策略最终扩缩时用哪个策略取决于 `selectPolicy`。
* `selectPolicy` 默认是 `Max`,即扩缩时,评估多个策略算出来的结果,最终选取扩缩 Pod 数量最多的那个策略的结果。
* `stabilizationWindowSeconds` 是稳定窗口时长即需要指标高于或低于阈值并持续这个窗口的时长才会真正执行扩缩以防止抖动导致频繁扩缩容。扩容时稳定窗口默认为0即立即扩容缩容时稳定窗口默认为5分钟。
* `policies` 中定义扩容或缩容策略,`type` 的值可以是 `Pods` 或 `Percent`,表示每 `periodSeconds` 时间范围内,允许扩缩容的最大副本数或比例。
## 场景与示例
下面给出一些使用场景的示例。
### 快速扩容
当你的应用需要快速扩容时,可以使用类似如下的 HPA 配置:
```yaml
behavior:
scaleUp:
policies:
- type: Percent
value: 900
periodSeconds: 15 # 每 15s 最多允许扩容 9 倍于当前副本数
```
上面的配置表示扩容时最大一次性新增当前 9 倍数量的副本数,当然也不能超过 `maxReplicas` 的限制。
假如一开始只有 1 个 Pod如果遭遇流量突发且指标持续超阈值 9 倍以上,它将以飞快的速度进行扩容,扩容时 Pod 数量变化趋势如下:
```txt
1 -> 10 -> 100 -> 1000
```
没有配置缩容策略,将等待全局默认的缩容时间窗口 (默认5分钟) 后开始缩容。
### 快速扩容,缓慢缩容
如果流量高峰过了,并发量骤降,如果用默认的缩容策略,等几分钟后 Pod 数量也会随之骤降,如果 Pod 缩容后突然又来一个流量高峰,虽然可以快速扩容,但扩容的过程毕竟还是需要一定时间的,如果流量高峰足够高,在这段时间内还是可能造成后端处理能力跟不上,导致部分请求失败。这时候我们可以为 HPA 加上缩容策略HPA `behavior` 配置示例如下:
```yaml
behavior:
scaleUp:
policies:
- type: Percent
value: 900
periodSeconds: 15 # 每 15s 最多允许扩容 9 倍于当前副本数
scaleDown:
policies:
- type: Pods
value: 1
periodSeconds: 600 # 每 10 分钟最多只允许缩掉 1 个 Pod
```
上面示例中增加了 `scaleDown` 的配置,指定缩容时每 10 分钟才缩掉 1 个 Pod大大降低了缩容速度缩容时的 Pod 数量变化趋势如下:
```txt
1000 -> … (10 min later) -> 999
```
这个可以让关键业务在可能有流量突发的情况下保持处理能力,避免流量高峰导致部分请求失败。
### 缓慢扩容
如果想要你的应用不太关键,希望扩容时不要太敏感,可以让它扩容平稳缓慢一点,为 HPA 加入下面的 `behavior`:
```yaml
behavior:
scaleUp:
policies:
- type: Pods
value: 1
periodSeconds: 300 # 每 5 分钟最多只允许扩容 1 个 Pod
```
假如一开始只有 1 个 Pod指标一直持续超阈值扩容时它的 Pod 数量变化趋势如下:
```txt
1 -> 2 -> 3 -> 4
```
### 禁止自动缩容
如果应用非常关键,希望扩容后不自动缩容,需要人工干预或其它自己开发的 controller 来判断缩容条件,可以使用类型如下的 `behavior` 配置来禁止自动缩容:
```yaml
behavior:
scaleDown:
selectPolicy: Disabled
```
### 延长缩容时间窗口
缩容默认时间窗口是 5 分钟,如果我们需要延长时间窗口以避免一些流量毛刺造成的异常,可以指定下缩容的时间窗口,`behavior` 配置示例如下:
```yaml
behavior:
scaleDown:
stabilizationWindowSeconds: 600 # 等待 10 分钟再开始缩容
policies:
- type: Pods
value: 5
periodSeconds: 600 # 每 10 分钟最多只允许缩掉 5 个 Pod
```
上面的示例表示当负载降下来时,会等待 600s (10 分钟) 再缩容,每 10 分钟最多只允许缩掉 5 个 Pod。
### 延长扩容时间窗口
有些应用经常会有数据毛刺导致频繁扩容,而扩容出来的 Pod 其实没太大必要,反而浪费资源。比如数据处理管道的场景,需要的副本数取决于队列中的事件数量,当队列中堆积了大量事件时,我们希望可以快速扩容,但又不希望太灵敏,因为可能只是短时间内的事件堆积,即使不扩容也可以很快处理掉。
默认的扩容算法会在较短的时间内扩容,针对这种场景我们可以给扩容增加一个时间窗口以避免毛刺导致扩容带来的资源浪费,`behavior` 配置示例如下:
```yaml
behavior:
scaleUp:
stabilizationWindowSeconds: 300 # 扩容前等待 5 分钟的时间窗口
policies:
- type: Pods
value: 20
periodSeconds: 60 # 每分钟最多只允许扩容 20 个 Pod
```
上面的示例表示扩容时,需要先等待 5 分钟的时间窗口,如果在这段时间内指标又降下来了就不再扩容,如果一直持续超过阈值才扩容,并且每分钟最多只允许扩容 20 个 Pod。
## FAQ
### 为什么我用 v2beta2 创建的 HPA创建后获取到的 yaml 版本是 v1 或 v2beta1?
![](https://image-host-1251893006.cos.ap-chengdu.myqcloud.com/20220728151816.png)
这是因为 HPA 有多个 apiVersion 版本:
```bash
kubectl api-versions | grep autoscaling
autoscaling/v1
autoscaling/v2beta1
autoscaling/v2beta2
autoscaling/v2
```
以任意一种版本创建,都可以以任意版本获取(自动转换)。
如果是用 kubectl 获取kubectl 在进行 API discovery 时,会缓存 apiserver 返回的各种资源与版本信息,有些资源存在多个版本,在 get 时如果不指定版本,会使用默认版本获取。
如何指定 API 版本进行获取或编辑?指定包含版本信息的完整资源名即可:
```bash
kubectl get horizontalpodautoscaler.v2.autoscaling php-apache -o yaml
# kubectl edit horizontalpodautoscaler.v2.autoscaling php-apache
```
### 配置快速扩容,为什么快不起来?
比如这个配置:
```yaml
behavior:
scaleUp:
policies:
- type: Percent
value: 900
periodSeconds: 10
```
含义是允许每 10 秒最大允许扩出 9 倍于当前数量的 Pod实测中可能发现压力已经很大了但扩容却并不快。
通常原因是计算周期与指标延时:
* 期望副本数的计算有个计算周期,默认是 15 秒 (由 `kube-controller-manager``--horizontal-pod-autoscaler-sync-period` 参数决定)。
* 每次计算时,都会通过相应的 metrics API 去获取当前监控指标的值,这个返回的值通常不是实时的,对于腾讯云容器服务而言,监控数据是每分钟上报一次;对于自建的 prometheus + prometheus-adapter 而言监控数据的更新取决于监控数据抓取间隔prometheus-adapter 的 `--metrics-relist-interval` 参数决定监控指标刷新周期(从 prometheus 中查询),这两部分时长之和为监控数据更新的最长时间。
通常都不需要 HPA 极度的灵敏,有一定的延时一般都是可以接受的。如果实在有对灵敏度特别敏感的场景,可以考虑使用 prometheus缩小监控指标抓取间隔和 prometheus-adapter 的 `--metrics-relist-interval`
## 小结
本文介绍了如何利用 HPA 的新特性来控制扩缩容的速率,以更好的满足各种不同场景对扩容速度的需求,也提供了常见的几种场景与配置示例,可自行根据自己需求对号入座。
## 参考资料
* [HPA 官方介绍文档](https://kubernetes.io/zh-cn/docs/tasks/run-application/horizontal-pod-autoscale/)
* [控制 HPA 扩容速度的提案](https://github.com/kubernetes/enhancements/tree/master/keps/sig-autoscaling/853-configurable-hpa-scale-velocity)