kubeasz/docs/setup/08-cluster-storage.md

103 lines
4.1 KiB
Markdown
Raw Normal View History

2018-07-29 10:11:12 +08:00
# K8S 集群存储
## 前言
在kubernetes(k8s)中对于存储的资源抽象了两个概念分别是PersistentVolume(PV)、PersistentVolumeClaim(PVC)。
- PV是集群中的资源
- PVC是对这些资源的请求。
如上面所说PV和PVC都只是抽象的概念在k8s中是通过插件的方式提供具体的存储实现。目前包含有NFS、iSCSI和云提供商指定的存储系统更多的存储实现[参考官方文档](https://kubernetes.io/docs/concepts/storage/persistent-volumes/#access-modes)。
这里PV又有两种提供方式: 静态或者动态。
本篇以介绍 **NFS存储** 为例讲解k8s 众多存储方案中的一个实现。
## 静态 PV
首先我们需要一个NFS服务器用于提供底层存储。通过文档[nfs-server](../guide/nfs-server.md)我们可以创建一个NFS服务器。
2018-07-29 10:11:12 +08:00
2021-03-27 00:09:42 +08:00
- 创建静态 pv指定容量访问模式回收策略存储类等
2018-07-29 10:11:12 +08:00
``` bash
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-es-0
spec:
capacity:
storage: 4Gi
accessModes:
- ReadWriteMany
volumeMode: Filesystem
persistentVolumeReclaimPolicy: Recycle
storageClassName: "es-storage-class"
nfs:
# 根据实际共享目录修改
path: /share/es0
# 根据实际 nfs服务器地址修改
server: 192.168.1.208
```
- 创建 pvc即可绑定使用上述 pv了具体请看后文 test pod例子
## 创建动态PV
在一个工作k8s 集群中,`PVC`请求会很多,如果每次都需要管理员手动去创建对应的 `PV`资源,那就很不方便;因此 K8S还提供了多种 `provisioner`来动态创建 `PV`,不仅节省了管理员的时间,还可以根据`StorageClasses`封装不同类型的存储供 PVC 选用。
2021-03-27 00:09:42 +08:00
项目中以nfs-client-provisioner为例https://github.com/kubernetes-sigs/nfs-subdir-external-provisioner
2018-07-29 10:11:12 +08:00
2021-03-27 00:09:42 +08:00
- 1.编辑集群配置文件clusters/${集群名}/config.yml
2018-07-29 10:11:12 +08:00
``` bash
2021-03-27 00:09:42 +08:00
... 省略
# 在role:cluster-addon 中启用nfs-provisioner 安装
nfs_provisioner_install: "yes" # 修改为yes
nfs_provisioner_namespace: "kube-system"
nfs_provisioner_ver: "v4.0.1"
nfs_storage_class: "managed-nfs-storage"
nfs_server: "192.168.31.244" # 修改为实际nfs server地址
nfs_path: "/data/nfs" # 修改为实际的nfs共享目录
2018-07-29 10:11:12 +08:00
```
2021-03-27 00:09:42 +08:00
2019-06-26 22:49:40 +08:00
- 2.创建 nfs provisioner
2018-07-29 10:11:12 +08:00
``` bash
2021-03-27 00:09:42 +08:00
$ ezctl setup ${集群名} 07
2018-07-29 10:11:12 +08:00
# 执行成功后验证
2021-03-27 00:09:42 +08:00
$ kubectl get pod --all-namespaces |grep nfs-client
kube-system nfs-client-provisioner-84ff87c669-ksw95 1/1 Running 0 21m
2018-07-29 10:11:12 +08:00
```
## 验证使用动态 PV
2021-03-27 00:09:42 +08:00
在目录clusters/${集群名}/yml/nfs-provisioner/ 有个测试例子
2018-07-29 10:11:12 +08:00
``` bash
2021-03-27 00:09:42 +08:00
$ kubectl apply -f /etc/kubeasz/clusters/hello/yml/nfs-provisioner/test-pod.yaml
2018-07-29 10:11:12 +08:00
# 验证测试pod
2021-03-27 00:09:42 +08:00
kubectl get pod
NAME READY STATUS RESTARTS AGE
test-pod 0/1 Completed 0 6h36m
2018-07-29 10:11:12 +08:00
# 验证自动创建的pv 资源,
2021-03-27 00:09:42 +08:00
kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-44d34a50-e00b-4f6c-8005-40f5cc54af18 2Mi RWX Delete Bound default/test-claim managed-nfs-storage 6h36m
2018-07-29 10:11:12 +08:00
# 验证PVC已经绑定成功STATUS字段为 Bound
2021-03-27 00:09:42 +08:00
kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
test-claim Bound pvc-44d34a50-e00b-4f6c-8005-40f5cc54af18 2Mi RWX managed-nfs-storage 6h37m
2018-07-29 10:11:12 +08:00
```
另外Pod启动完成后在挂载的目录中创建一个`SUCCESS`文件。我们可以到NFS服务器去看下
```
.
2021-03-27 00:09:42 +08:00
└── default-test-claim-pvc-44d34a50-e00b-4f6c-8005-40f5cc54af18
2018-07-29 10:11:12 +08:00
└── SUCCESS
```
如上可以发现挂载的时候nfs-client根据PVC自动创建了一个目录我们Pod中挂载的`/mnt`,实际引用的就是该目录,而我们在`/mnt`下创建的`SUCCESS`文件,也自动写入到了这里。
# 后续
后面当我们需要为上层应用提供持久化存储时,只需要提供`StorageClass`即可。很多应用都会根据`StorageClass`来创建他们的所需的PVC, 最后再把PVC挂载到他们的Deployment或StatefulSet中使用比如efk、jenkins等