update at 2024-04-24 12:42:34

pull/158/head
roc 2024-04-24 12:42:34 +08:00
parent 2d81691578
commit 08fb74de60
2 changed files with 37 additions and 0 deletions

View File

@ -0,0 +1,36 @@
# 基于 Prometheus 自定义指标的弹性伸缩
## Prometheus 触发器
KEDA 支持 `prometheus` 类型的触发器,即根据自定义的 PromQL 查询到的 Prometheus 指标数据进行伸缩,完整配置参数参考 [KEDA Scalers: Prometheus](https://keda.sh/docs/latest/scalers/prometheus/),本文将给出一些使用示例。
## 案例:基于 istio 的 QPS 指标伸缩
如果你使用 isito业务 Pod 注入了 sidecar会自动暴露一些七层的监控指标最常见的是 `istio_requests_total`,可以通过这个指标计算 QPS。
假设这种场景A 服务需要根据 B 服务处理的 QPS 进行伸缩。
```yaml
apiVersion: keda.sh/v1alpha1
kind: ScaledObject
metadata:
name: b-scaledobject
namespace: prod
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: a # 对 A 服务进行伸缩
pollingInterval: 15
minReplicaCount: 1
maxReplicaCount: 100
triggers:
# highlight-start
- type: prometheus
metadata:
serverAddress: http://monitoring-kube-prometheus-prometheus.monitoring.svc.cluster.local:9090 # 替换 Prometheus 的地址
query: | # 计算 B 服务 QPS 的 PromQL
sum(irate(istio_requests_total{reporter=~"destination",destination_workload_namespace=~"prod",destination_workload=~"b"}[1m]))
threshold: "100" # A服务副本数=ceil(B服务QPS/100)
# highlight-end
```

View File

@ -84,6 +84,7 @@ const sidebars: SidebarsConfig = {
'autoscaling/keda/install',
'autoscaling/keda/cron',
'autoscaling/keda/workload',
'autoscaling/keda/prometheus',
]
}
],