kubernetes-handbook/practice/using-heketi-gluster-for-pe...

422 lines
19 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 使用Heketi作为kubernetes的持久存储GlusterFS的external provisionerKubernetes集成GlusterFS集群和Heketi
本文翻译自[heketi的github网址官方文档](https://github.com/heketi/heketi/blob/master/docs/admin/install-kubernetes.md )大部分为google翻译少许人工调整括号内为个人注解其中注意事项部分为其他网上查询所得。
本文的整个过程将在kubernetes集群上的3个或以上节点安装glusterfs的服务端集群DaemonSet方式并将heketi以deployment的方式部署到kubernetes集群。在我的示例部分有StorageClass和PVC的样例。本文介绍的HeketiGlusterFS这2个组件与kubernetes集成只适合用于测试验证环境并不适合生产环境请注意这一点。
Heketi是一个具有resetful接口的glusterfs管理程序作为kubernetes的Storage存储的external provisioner。
“Heketi提供了一个RESTful管理界面可用于管理GlusterFS卷的生命周期。借助Heketi像OpenStack ManilaKubernetes和OpenShift这样的云服务可以动态地配置GlusterFS卷和任何支持的持久性类型。Heketi将自动确定整个集群的brick位置确保将brick及其副本放置在不同的故障域中。Heketi还支持任意数量的GlusterFS集群允许云服务提供网络文件存储而不受限于单个GlusterFS集群。”
## 注意事项
* 安装Glusterfs客户端每个kubernetes集群的节点需要安装gulsterfs的客户端如ubuntu系统的`apt-get install glusterfs-client`。
* 加载内核模块每个kubernetes集群的节点运行`modprobe dm_thin_pool`,加载内核模块。
* 至少三个slave节点至少需要3个kubernetes slave节点用来部署glusterfs集群并且这3个slave节点每个节点需要至少一个空余的磁盘。
## 概述
本指南支持在Kubernetes集群中集成部署和管理GlusterFS 容器化的存储节点。这使得Kubernetes管理员可以为其用户提供可靠的共享存储。
跟这个话题相关的另一个重要资源是[gluster-kubernetes](https://github.com/gluster/gluster-kubernetes) 项目。它专注于在Kubernetes集群中部署GlusterFS并提供简化的工具来完成此任务。它包含一个安装指南 [setup guide](https://github.com/gluster/gluster-kubernetes/blob/master/docs/setup-guide.md)。它还包括一个样例 [Hello World](https://github.com/gluster/gluster-kubernetes/tree/master/docs/examples/hello_world)。其中包含一个使用动态配置dynamically-provisioned的GlusterFS卷进行存储的Web server pod示例。对于那些想要测试或学习更多关于此主题的人请按照主[README](https://github.com/gluster/gluster-kubernetes) 的快速入门说明 进行操作。
本指南旨在展示Heketi在Kubernetes环境中管理Gluster的最简单示例。这是为了强调这种配置的主要组成组件因此并不适合生产环境。
## 基础设施要求
* 正在运行的Kubernetes集群至少有三个Kubernetes工作节点每个节点至少有一个可用的裸块设备如EBS卷或本地磁盘.
* 用于运行GlusterFS Pod的三个Kubernetes节点必须为GlusterFS通信打开相应的端口如果开启了防火墙的情况下没开防火墙就不需要这些操作。在每个节点上运行以下命令。
```bash
iptables -N heketi
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24007 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24008 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 2222 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m multiport --dports 49152:49251 -j ACCEPT
service iptables save
```
## 客户端安装
Heketi提供了一个CLI客户端为用户提供了一种管理Kubernetes中GlusterFS的部署和配置的方法。 在客户端机器上下载并安装[Download and install the heketi-cli](https://github.com/heketi/heketi/releases)。
## Glusterfs和Heketi在Kubernetes集群中的部署过程
以下所有文件都位于下方extras/kubernetes (`git clone https://github.com/heketi/heketi.git`)。
* 部署 GlusterFS DaemonSet
```bash
$ kubectl create -f glusterfs-daemonset.json
```
* 通过运行如下命令获取节点名称:
```bash
$ kubectl get nodes
```
* 通过设置storagenode=glusterfs节点上的标签将gluster容器部署到指定节点上。
```bash
$ kubectl label node <...node...> storagenode=glusterfs
```
根据需要重复打标签的步骤。验证Pod在节点上运行至少应运行3个Pod因此至少需要给3个节点打标签
```bash
$ kubectl get pods
```
* 接下来我们将为Heketi创建一个服务帐户service-account:
```bash
$ kubectl create -f heketi-service-account.json
```
* 我们现在必须给该服务帐户的授权绑定相应的权限来控制gluster的pod。我们通过为我们新创建的服务帐户创建群集角色绑定cluster role binding来完成此操作。
```bash
$ kubectl create clusterrolebinding heketi-gluster-admin --clusterrole=edit --serviceaccount=default:heketi-service-account
```
* 现在我们需要创建一个Kubernetes secret来保存我们Heketi实例的配置。必须将配置文件的执行程序设置为 kubernetes才能让Heketi server控制gluster pod配置文件的默认配置。除此这些可以尝试配置的其他选项。
```bash
$ kubectl create secret generic heketi-config-secret --from-file=./heketi.json
```
* 接下来我们需要部署一个初始bootstrapPod和一个服务来访问该Pod。在你用git克隆的repo中会有一个heketi-bootstrap.json文件。
提交文件并验证一切正常运行,如下所示:
```bash
# kubectl create -f heketi-bootstrap.json
service "deploy-heketi" created
deployment "deploy-heketi" created
# kubectl get pods
NAME READY STATUS RESTARTS AGE
deploy-heketi-1211581626-2jotm 1/1 Running 0 35m
glusterfs-ip-172-20-0-217.ec2.internal-1217067810-4gsvx 1/1 Running 0 1h
glusterfs-ip-172-20-0-218.ec2.internal-2001140516-i9dw9 1/1 Running 0 1h
glusterfs-ip-172-20-0-219.ec2.internal-2785213222-q3hba 1/1 Running 0 1h
```
* 当Bootstrap heketi服务正在运行我们配置端口转发以便我们可以使用Heketi CLI与服务进行通信。使用heketi pod的名称运行下面的命令
`kubectl port-forward deploy-heketi-1211581626-2jotm :8080`
如果在运行命令的系统上本地端口8080是空闲的则可以运行port-forward命令以便绑定到8080以方便使用2个命令二选一即可我选择第二个
`kubectl port-forward deploy-heketi-1211581626-2jotm 8080:8080`
现在通过对Heketi服务运行示例查询来验证端口转发是否正常。该命令应该已经打印了将从其转发的本地端口。将其合并到URL中以测试服务如下所示
```bash
curl http://localhost:8080/hello
Handling connection for 8080
Hello from heketi
```
最后为Heketi CLI客户端设置一个环境变量以便它知道Heketi服务器的地址。
`export HEKETI_CLI_SERVER=http://localhost:8080`
* 接下来我们将向Heketi提供有关要管理的GlusterFS集群的信息。通过拓扑文件提供这些信息。克隆的repo中有一个示例拓扑文件名为topology-sample.json。拓扑指定运行GlusterFS容器的Kubernetes节点以及每个节点的相应原始块设备。
确保hostnames/manage指向如下所示的确切名称kubectl get nodes得到的主机名如ubuntu-1并且hostnames/storage是存储网络的IP地址对应ubuntu-1的ip地址
**IMPORTANT**: 重要提示目前必须使用与服务器版本匹配的Heketi-cli版本加载拓扑文件。另外Heketi pod 带有可以通过 `kubectl exec ...`访问的heketi-cli副本。
修改拓扑文件以反映您所做的选择然后如下所示部署它修改主机名IPblock 设备的名称 如xvdg
```bash
heketi-client/bin/heketi-cli topology load --json=topology-sample.json
Handling connection for 57598
Found node ip-172-20-0-217.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-218.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-219.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
```
* 接下来我们将使用heketi为其存储其数据库提供一个卷不要怀疑就是使用这个命令openshift和kubernetes通用此命令生成heketi-storage.json文件
```bash
# heketi-client/bin/heketi-cli setup-openshift-heketi-storage
# kubectl create -f heketi-storage.json
```
> Pitfall: 注意如果在运行setup-openshift-heketi-storage子命令时heketi-cli报告“无空间”错误则可能无意中运行topology load命令的时候服务端和heketi-cli的版本不匹配造成的。停止正在运行的heketi podkubectl scale deployment deploy-heketi --replicas=0手动删除存储块设备中的任何签名然后继续运行heketi podkubectl scale deployment deploy-heketi --replicas=1。然后用匹配版本的heketi-cli重新加载拓扑然后重试该步骤。
* 等到作业完成后删除bootstrap Heketi实例相关的组件
```bash
# kubectl delete all,service,jobs,deployment,secret --selector="deploy-heketi"
```
* 创建长期使用的Heketi实例存储持久化的
```bash
# kubectl create -f heketi-deployment.json
service "heketi" created
deployment "heketi" created
```
* 这样做了以后heketi db将使用GlusterFS卷并且每当heketi pod重新启动时都不会重置数据不会丢失存储持久化
使用诸如heketi-cli cluster list和的命令heketi-cli volume list 来确认先前建立的集群存在并且heketi可以列出在bootstrap阶段创建的db存储卷。
# 使用样例
有两种方法来调配存储。常用的方法是设置一个StorageClass让Kubernetes为提交的PersistentVolumeClaim自动配置存储。或者可以通过Kubernetes手动创建和管理卷PVs或直接使用heketi-cli中的卷。
参考[gluster-kubernetes hello world example](https://github.com/gluster/gluster-kubernetes/blob/master/docs/examples/hello_world/README.md)
获取关于 storageClass 的更多信息.
# 我的示例(非翻译部分内容)
* topology文件我的例子3个节点ubuntu-1192.168.5.191,ubuntu-2192.168.5.192,ubuntu-3192.168.5.193,每个节点2个磁盘用来做存储sdbsdc
```bash
# cat topology-sample.json
```
```json
{
"clusters": [
{
"nodes": [
{
"node": {
"hostnames": {
"manage": [
"ubuntu-1"
],
"storage": [
"192.168.5.191"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-2"
],
"storage": [
"192.168.5.192"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-3"
],
"storage": [
"192.168.5.193"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
}
]
}
]
}
```
* 确认glusterfs和heketi的pod运行正常
```bash
# kubectl get pod
NAME READY STATUS RESTARTS AGE
glusterfs-gf5zc 1/1 Running 2 8h
glusterfs-ngc55 1/1 Running 2 8h
glusterfs-zncjs 1/1 Running 0 2h
heketi-5c8ffcc756-x9gnv 1/1 Running 5 7h
```
* StorageClass yaml文件示例
```bash
# cat storage-class-slow.yaml
```
```yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: slow #-------------SC的名字
provisioner: kubernetes.io/glusterfs
parameters:
resturl: "http://10.103.98.75:8080" #-------------heketi service的cluster ip 和端口
restuser: "admin" #-------------随便填,因为没有启用鉴权模式
gidMin: "40000"
gidMax: "50000"
volumetype: "replicate:3" #-------------申请的默认为3副本模式
```
* PVC举例
```bash
# cat pvc-sample.yaml
```
```yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: myclaim
annotations:
volume.beta.kubernetes.io/storage-class: "slow" #-------------sc的名字,需要与storageclass的名字一致
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
```
查看创建的pvc和pv
```bash
# kubectl get pvc|grep myclaim
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
myclaim Bound pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO slow 28s
# kubectl get pv|grep myclaim
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO Delete Bound default/myclaim slow 1m
```
* 可以将slow的sc设置为默认这样平台分配存储的时候可以自动从glusterfs集群分配pv
```bash
# kubectl patch storageclass slow -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
storageclass.storage.k8s.io "slow" patched
# kubectl get sc
NAME PROVISIONER AGE
default fuseim.pri/ifs 1d
slow (default) kubernetes.io/glusterfs 6h
```
# 容量限额测试
已经通过Helm 部署的一个mysql2 实例使用存储2G信息查看如下
```bash
# helm list
NAME REVISION UPDATED STATUS CHART NAMESPACE
mysql2 1 Thu Apr 12 15:27:11 2018 DEPLOYED mysql-0.3.7 default
```
查看PVC和PV大小2Gmysql2-mysql
```bash
# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
mysql2-mysql Bound pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO slow 19h
# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO Delete Bound default/mysql2-mysql slow 19h
```
查看mysql的pod
```bash
# kubectl get pod|grep mysql2
mysql2-mysql-56d64f5b77-j2v84 1/1 Running 2 19h
```
进入mysql所在容器
```bash
# kubectl exec -it mysql2-mysql-56d64f5b77-j2v84 /bin/bash
```
查看挂载路径,查看挂载信息
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/#cd /var/lib/mysql
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql#
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G 264M 1.8G 13% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
```
使用dd写入数据写入一段时间以后空间满了会报错报错信息有bug不是报空间满了而是报文件系统只读应该是glusterfs和docker配合的问题
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# dd if=/dev/zero of=test.img bs=8M count=300
dd: error writing 'test.img': Read-only file system
dd: closing output file 'test.img': Input/output error
```
查看写满以后的文件大小
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# ls -l
total 2024662
-rw-r----- 1 mysql mysql 56 Apr 12 07:27 auto.cnf
-rw-r----- 1 mysql mysql 1329 Apr 12 07:27 ib_buffer_pool
-rw-r----- 1 mysql mysql 50331648 Apr 12 12:05 ib_logfile0
-rw-r----- 1 mysql mysql 50331648 Apr 12 07:27 ib_logfile1
-rw-r----- 1 mysql mysql 79691776 Apr 12 12:05 ibdata1
-rw-r----- 1 mysql mysql 12582912 Apr 12 12:05 ibtmp1
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 mysql
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 performance_schema
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 sys
-rw-r--r-- 1 root mysql 1880887296 Apr 13 02:47 test.img
```
查看挂载信息挂载信息显示bug应该是glusterfs的bug
```bash
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G -16E 0 100% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
```
查看文件夹大小为2G
```bash
# du -h
25M ./mysql
825K ./performance_schema
496K ./sys
2.0G .
```
如上说明glusterfs的限额作用是起效的限制在2G的空间大小。