kubernetes-handbook/practice/distributed-load-test.md

109 lines
3.6 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 分布式负载测试
该教程描述如何在 [Kubernetes](https://kubernetes.io/) 中进行分布式负载均衡测试,包括一个 web 应用、docker 镜像和 Kubernetes controllers/services。关于分布式负载测试的更多资料请查看 [Distributed Load Testing Using Kubernetes](https://cloud.google.com/solutions/distributed-load-testing-using-kubernetes) 。
## 准备
不需要 GCE 及其他组件,你只需要有一个 kubernetes 集群即可。
## 部署 Web 应用
本文中使用的镜像、kubernetes 应用的 yaml 配置来自我的另一个项目,请参考 [GitHub](https://github.com/rootsongjc/distributed-load-testing-using-kubernetes)。
`sample-webapp` 目录下包含一个简单的 web 测试应用。我们将其构建为 docker 镜像,在 kubernetes 中运行。
在 kubernetes 上部署 sample-webapp。
```bash
$ git clone https://github.com/rootsongjc/distributed-load-testing-using-kubernetes.git
$ cd kubernetes-config
$ kubectl create -f sample-webapp-controller.yaml
$ kubectl create -f sample-webapp-service.yaml
```
## 部署 Locust 的 Controller 和 Service
`locust-master``locust-work` 使用同样的 docker 镜像,修改 cotnroller 中 `spec.template.spec.containers.env` 字段中的 value 为你 `sample-webapp` service 的名字。
```yaml
- name: TARGET_HOST
value: http://sample-webapp:8000
```
### 创建 Controller Docker 镜像(可选)
`locust-master``locust-work` controller 使用的都是 `locust-tasks` docker 镜像。你可以直接下载 `gcr.io/cloud-solutions-images/locust-tasks`,也可以自己编译。自己编译大概要花几分钟时间,镜像大小为 820M。
```bash
$ docker build -t jimmysong/locust-tasks:latest .
$ docker push jimmysong/locust-tasks:latest
```
每个 controller 的 yaml 的 `spec.template.spec.containers.image` 字段指定的是我的镜像:
```ini
image: jimmysong/locust-tasks:latest
```
### 部署 locust-master
```bash
$ kubectl create -f locust-master-controller.yaml
$ kubectl create -f locust-master-service.yaml
```
### 部署 locust-worker
Now deploy `locust-worker-controller`:
```bash
$ kubectl create -f locust-worker-controller.yaml
```
你可以很轻易的给 work 扩容,通过命令行方式:
```bash
$ kubectl scale --replicas=20 replicationcontrollers locust-worker
```
当然你也可以通过 WebUIDashboard - Workloads - Replication Controllers - **ServiceName** - Scale 来扩容。
![使用 dashboard 来扩容](../images/dashbaord-scale.jpg)
### 配置Traefik
参考 [Kubernetes 的 traefik ingress 安装](https://jimmysong.io/posts/traefik-ingress-installation/),在 `ingress.yaml` 中加入如下配置:
```yaml
- host: traefik.locust.io
http:
paths:
- path: /
backend:
serviceName: locust-master
servicePort: 8089
```
然后执行 `kubectl replace -f ingress.yaml` 即可更新 traefik。
通过 Traefik 的 dashboard 就可以看到刚增加的 `traefik.locust.io` 节点。
![Traefik的UI](../images/traefik-dashboard-locust.jpg)
## 执行测试
打开 `http://traefik.locust.io` 页面,点击 `Edit` 输入伪造的用户数和用户每秒发送的请求个数,点击 `Start Swarming` 就可以开始测试了。
![Locust启动界面](../images/locust-start-swarming.jpg)
在测试过程中调整 `sample-webapp` 的 pod 个数(默认设置了 1 个 pod观察 pod 的负载变化情况。
![Dashboard查看页面](../images/sample-webapp-rc.jpg)
从一段时间的观察中可以看到负载被平均分配给了 3 个 pod。
在 locust 的页面中可以实时观察也可以下载测试结果。
![Locust测试结果页面](../images/locust-dashboard.jpg)