Update rbd-provisioner.md

调整文章内容
pull/295/head
iiitux 2018-10-14 23:15:54 +08:00 committed by GitHub
parent acc375a958
commit 50c894898d
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 25 additions and 13 deletions

View File

@ -1,15 +1,19 @@
# rbd-provisioner # 使用rbd-provisioner提供rbd持久化存储动态配置
一些用户会使用kubeadm来部署集群或者将kube-controller-manager以容器的方式运行。这种方式下使用ceph rbd pv/pvc没任何问题但使用dynamic provisioning来自动管理存储生命周期时会报错。提示`"rbd: create volume failed, err: failed to create rbd image: executable file not found in $PATH:"` rbd-provisioner为kubernetes 1.5+版本提供了类似于`kubernetes.io/rbd`的ceph rbd持久化存储动态配置实现
问题来自gcr.io提供的kube-controller-manager docker镜像里缺少了rbd命令因此无法通过rbd命令为pod创建ceph rbd image查了github的相关文章目前官方在kubernetes-incubator/external-storage项目通过External Provisioners的方式来解决此类问题 一些用户会使用kubeadm来部署集群或者将kube-controller-manager以容器的方式运行。这种方式下kubernetes在创建使用ceph rbd pv/pvc时没任何问题但使用dynamic provisioning自动管理存储生命周期时会报错。提示`"rbd: create volume failed, err: failed to create rbd image: executable file not found in $PATH:"`
本文主要针对该问题通过rbd-provisioner的方式配置ceph rbd的dynamic provisioning问题。 问题来自gcr.io提供的kube-controller-manager容器镜像未打包ceph-common组件缺少了rbd命令因此无法通过rbd命令为pod创建rbd image查了github的相关文章目前kubernetes官方在kubernetes-incubator/external-storage项目通过External Provisioners的方式来解决此类问题。
本文主要针对该问题通过rbd-provisioner的方式解决ceph rbd的dynamic provisioning问题。
* 参考链接[RBD Volume Provisioner for Kubernetes 1.5+](https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/rbd) * 参考链接[RBD Volume Provisioner for Kubernetes 1.5+](https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/rbd)
## 部署rbd-provisioner ## 部署rbd-provisioner
首先得在kubernetes集群中安装rbd-provisionergithub仓库链接[https://github.com/kubernetes-incubator/external-storage](https://github.com/kubernetes-incubator/external-storage]
```bash ```bash
[root@k8s01 ~]# git clone https://github.com/kubernetes-incubator/external-storage.git [root@k8s01 ~]# git clone https://github.com/kubernetes-incubator/external-storage.git
[root@k8s01 ~]# cd external-storage/ceph/rbd/deploy [root@k8s01 ~]# cd external-storage/ceph/rbd/deploy
@ -18,7 +22,9 @@
[root@k8s01 deploy]# kubectl -n $NAMESPACE apply -f ./rbac [root@k8s01 deploy]# kubectl -n $NAMESPACE apply -f ./rbac
``` ```
*根据自己需要修改rbd-provisioner的namespace * 根据自己需要修改rbd-provisioner的namespace
部署完成后检查rbd-provisioner deployment确保已经正常部署
```bash ```bash
[root@k8s01 ~]# kubectl describe deployments.apps -n kube-system rbd-provisioner [root@k8s01 ~]# kubectl describe deployments.apps -n kube-system rbd-provisioner
@ -54,10 +60,10 @@ NewReplicaSet: rbd-provisioner-db574c5c (1/1 replicas created)
Events: <none> Events: <none>
``` ```
* 检查rbd-provisioner deployment确保部署正常
## 创建storageclass ## 创建storageclass
部署完rbd-provisioner还需要创建StorageClass。创建SC前我们还需要创建相关用户的secret
```bash ```bash
[root@k8s01 ~]# vi secrets.yaml [root@k8s01 ~]# vi secrets.yaml
apiVersion: v1 apiVersion: v1
@ -128,6 +134,8 @@ parameters:
## 测试ceph rbd自动分配 ## 测试ceph rbd自动分配
在kube-system和default namespace分别创建pod通过启动一个busybox实例将ceph rbd镜像挂载到`/usr/share/busybox`
```bash ```bash
[root@k8s01 ~]# vi test-pod.yaml [root@k8s01 ~]# vi test-pod.yaml
apiVersion: v1 apiVersion: v1
@ -167,7 +175,7 @@ pod/ceph-pod1 created
persistentvolumeclaim/ceph-claim created persistentvolumeclaim/ceph-claim created
``` ```
* 在kube-system和default namespace分别创建pod通过启动一个busybox镜像将ceph rbd镜像挂载到`/usr/share/busybox` 检查pv和pvc的创建状态是否都已经创建
```bash ```bash
[root@k8s01 ~]# kubectl get pvc [root@k8s01 ~]# kubectl get pvc
@ -182,7 +190,7 @@ pvc-ea377cad-cef7-11e8-8484-005056a33f16 2Gi RWO Delete
pvc-ee0f1c35-cef7-11e8-8484-005056a33f16 2Gi RWO Delete Bound default/ceph-claim ceph-rbd 32s pvc-ee0f1c35-cef7-11e8-8484-005056a33f16 2Gi RWO Delete Bound default/ceph-claim ceph-rbd 32s
``` ```
* 检查pv和pvc的创建状态是否都已经创建 在ceph服务器上检查rbd镜像创建情况和镜像的信息
```bash ```bash
[root@k8s01 ~]# rbd ls --pool rbd [root@k8s01 ~]# rbd ls --pool rbd
@ -209,7 +217,7 @@ rbd image 'kubernetes-dynamic-pvc-eef5814f-cef7-11e8-aa22-0a580af40202':
create_timestamp: Sat Oct 13 22:54:49 2018 create_timestamp: Sat Oct 13 22:54:49 2018
``` ```
* 在ceph服务器上检查rbd镜像创建情况和镜像的信息 检查busybox内的文件系统挂载和使用情况确认能正常工作
```bash ```bash
[root@k8s01 ~]# kubectl exec -it ceph-pod1 mount |grep rbd [root@k8s01 ~]# kubectl exec -it ceph-pod1 mount |grep rbd
@ -223,7 +231,7 @@ rbd image 'kubernetes-dynamic-pvc-eef5814f-cef7-11e8-aa22-0a580af40202':
/dev/rbd0 1998672 6144 1976144 0% /usr/share/busybox /dev/rbd0 1998672 6144 1976144 0% /usr/share/busybox
``` ```
* 检查busybox内的文件系统挂载和使用情况确认能正常工作 测试删除pod能否自动删除pv和pvc生产环境中谨慎设置好回收策略
```bash ```bash
[root@k8s01 ~]# kubectl delete -f test-pod.yaml [root@k8s01 ~]# kubectl delete -f test-pod.yaml
@ -242,10 +250,14 @@ No resources found.
No resources found. No resources found.
``` ```
* 测试删除pod能否自动删除pv和pvc生产环境中谨慎设置好回收策略 ceph服务器上的rbd image也已清除自动回收成功
```bash ```bash
[root@k8s01 ~]# rbd ls --pool rbd [root@k8s01 ~]# rbd ls --pool rbd
``` ```
* ceph服务器上的rbd image也已清楚自动回收成功。 * 确认之前创建的rbd images都已经删除
## 总结
大部分情况下我们无需使用rbd provisioner来提供ceph rbd的dynamic provisioning能力。经测试在openShift、Rancher、SUSE CaaS以及本Handbook的二进制文件方式部署在安装好ceph-common软件包的情况下定义StorageClass时使用`kubernetes.io/rbd`即可正常使用ceph rbd provisioning功能。