2018-04-13 13:48:11 +08:00
# 使用Heketi作为kubernetes的持久存储GlusterFS的external provisioner( Kubernetes集成GlusterFS集群和Heketi)
2018-04-13 13:42:27 +08:00
2018-04-14 10:48:18 +08:00
本文翻译自[heketi的github网址官方文档](https://github.com/heketi/heketi/blob/master/docs/admin/install-kubernetes.md )( 大部分为google翻译, 少许人工调整, 括号内为个人注解) 其中注意事项部分为其他网上查询所得。
2018-04-13 13:48:11 +08:00
本文的整个过程将在kubernetes集群上的3个或以上节点安装glusterfs的服务端集群( DaemonSet方式) , 并将heketi以deployment的方式部署到kubernetes集群。在我的示例部分有StorageClass和PVC的样例。本文介绍的Heketi, GlusterFS这2个组件与kubernetes集成只适合用于测试验证环境, 并不适合生产环境, 请注意这一点。
2018-04-13 11:09:34 +08:00
2018-04-13 13:42:27 +08:00
Heketi是一个具有resetful接口的glusterfs管理程序, 作为kubernetes的Storage存储的external provisioner。
“Heketi提供了一个RESTful管理界面, 可用于管理GlusterFS卷的生命周期。借助Heketi, 像OpenStack Manila, Kubernetes和OpenShift这样的云服务可以动态地配置GlusterFS卷和任何支持的持久性类型。Heketi将自动确定整个集群的brick位置, 确保将brick及其副本放置在不同的故障域中。Heketi还支持任意数量的GlusterFS集群, 允许云服务提供网络文件存储, 而不受限于单个GlusterFS集群。”
2018-04-13 10:53:43 +08:00
## 注意事项
2018-04-13 13:42:27 +08:00
* 安装Glusterfs客户端: 每个kubernetes集群的节点需要安装gulsterfs的客户端, 如ubuntu系统的`apt-get install glusterfs-client`。
* 加载内核模块: 每个kubernetes集群的节点运行`modprobe dm_thin_pool`,加载内核模块。
* 至少三个slave节点: 至少需要3个kubernetes slave节点用来部署glusterfs集群, 并且这3个slave节点每个节点需要至少一个空余的磁盘。
2018-04-13 10:53:43 +08:00
## 概述
2018-04-13 09:08:27 +08:00
本指南支持在Kubernetes集群中集成, 部署和管理GlusterFS 容器化的存储节点。这使得Kubernetes管理员可以为其用户提供可靠的共享存储。
2018-04-13 10:53:43 +08:00
2018-04-14 10:48:18 +08:00
跟这个话题相关的另一个重要资源是[gluster-kubernetes](https://github.com/gluster/gluster-kubernetes) 项目。它专注于在Kubernetes集群中部署GlusterFS, 并提供简化的工具来完成此任务。它包含一个安装指南 [setup guide ](https://github.com/gluster/gluster-kubernetes/blob/master/docs/setup-guide.md )。它还包括一个样例 [Hello World ](https://github.com/gluster/gluster-kubernetes/tree/master/docs/examples/hello_world )。其中包含一个使用动态配置( dynamically-provisioned) 的GlusterFS卷进行存储的Web server pod示例。对于那些想要测试或学习更多关于此主题的人, 请按照主[README](https://github.com/gluster/gluster-kubernetes) 的快速入门说明 进行操作。
2018-04-13 10:53:43 +08:00
2018-04-13 13:42:27 +08:00
本指南旨在展示Heketi在Kubernetes环境中管理Gluster的最简单示例。这是为了强调这种配置的主要组成组件, 因此并不适合生产环境。
2018-04-13 09:08:27 +08:00
2018-04-13 10:53:43 +08:00
## 基础设施要求
* 正在运行的Kubernetes集群, 至少有三个Kubernetes工作节点, 每个节点至少有一个可用的裸块设备( 如EBS卷或本地磁盘) .
* 用于运行GlusterFS Pod的三个Kubernetes节点必须为GlusterFS通信打开相应的端口( 如果开启了防火墙的情况下, 没开防火墙就不需要这些操作) 。在每个节点上运行以下命令。
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 11:04:35 +08:00
iptables -N heketi
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24007 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 24008 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m tcp --dport 2222 -j ACCEPT
iptables -A heketi -p tcp -m state --state NEW -m multiport --dports 49152:49251 -j ACCEPT
2018-04-13 09:21:01 +08:00
service iptables save
2018-04-13 10:53:43 +08:00
```
## 客户端安装
2018-04-13 13:42:27 +08:00
Heketi提供了一个CLI客户端, 为用户提供了一种管理Kubernetes中GlusterFS的部署和配置的方法。 在客户端机器上下载并安装[Download and install the heketi-cli](https://github.com/heketi/heketi/releases)。
2018-04-13 10:53:43 +08:00
2018-04-13 13:42:27 +08:00
## Glusterfs和Heketi在Kubernetes集群中的部署过程
2018-04-14 10:48:18 +08:00
以下所有文件都位于下方extras/kubernetes (`git clone https://github.com/heketi/heketi.git`)。
2018-04-13 10:53:43 +08:00
* 部署 GlusterFS DaemonSet
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl create -f glusterfs-daemonset.json
```
* 通过运行如下命令获取节点名称:
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl get nodes
```
* 通过设置storagenode=glusterfs节点上的标签, 将gluster容器部署到指定节点上。
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl label node < ...node... > storagenode=glusterfs
```
根据需要重复打标签的步骤。验证Pod在节点上运行至少应运行3个Pod( 因此至少需要给3个节点打标签) 。
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl get pods
```
2018-04-13 13:42:27 +08:00
* 接下来, 我们将为Heketi创建一个服务帐户( service-account) :
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl create -f heketi-service-account.json
```
* 我们现在必须给该服务帐户的授权绑定相应的权限来控制gluster的pod。我们通过为我们新创建的服务帐户创建群集角色绑定( cluster role binding) 来完成此操作。
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl create clusterrolebinding heketi-gluster-admin --clusterrole=edit --serviceaccount=default:heketi-service-account
```
2018-04-13 13:42:27 +08:00
* 现在我们需要创建一个Kubernetes secret来保存我们Heketi实例的配置。必须将配置文件的执行程序设置为 kubernetes才能让Heketi server控制gluster pod( 配置文件的默认配置) 。除此这些, 可以尝试配置的其他选项。
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
$ kubectl create secret generic heketi-config-secret --from-file=./heketi.json
```
* 接下来, 我们需要部署一个初始( bootstrap) Pod和一个服务来访问该Pod。在你用git克隆的repo中, 会有一个heketi-bootstrap.json文件。
提交文件并验证一切正常运行,如下所示:
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl create -f heketi-bootstrap.json
service "deploy-heketi" created
deployment "deploy-heketi" created
# kubectl get pods
NAME READY STATUS RESTARTS AGE
deploy-heketi-1211581626-2jotm 1/1 Running 0 35m
glusterfs-ip-172-20-0-217.ec2.internal-1217067810-4gsvx 1/1 Running 0 1h
glusterfs-ip-172-20-0-218.ec2.internal-2001140516-i9dw9 1/1 Running 0 1h
glusterfs-ip-172-20-0-219.ec2.internal-2785213222-q3hba 1/1 Running 0 1h
```
2018-04-13 13:42:27 +08:00
* 当Bootstrap heketi服务正在运行, 我们配置端口转发, 以便我们可以使用Heketi CLI与服务进行通信。使用heketi pod的名称, 运行下面的命令:
2018-04-13 10:53:43 +08:00
`kubectl port-forward deploy-heketi-1211581626-2jotm :8080`
2018-04-13 13:14:38 +08:00
如果在运行命令的系统上本地端口8080是空闲的, 则可以运行port-forward命令, 以便绑定到8080以方便使用( 2个命令二选一即可, 我选择第二个) :
2018-04-13 10:53:43 +08:00
`kubectl port-forward deploy-heketi-1211581626-2jotm 8080:8080`
2018-04-13 13:42:27 +08:00
现在通过对Heketi服务运行示例查询来验证端口转发是否正常。该命令应该已经打印了将从其转发的本地端口。将其合并到URL中以测试服务, 如下所示:
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
curl http://localhost:8080/hello
Handling connection for 8080
2018-04-13 11:04:35 +08:00
Hello from heketi
2018-04-13 10:53:43 +08:00
```
2018-04-13 13:42:27 +08:00
最后, 为Heketi CLI客户端设置一个环境变量, 以便它知道Heketi服务器的地址。
2018-04-13 10:53:43 +08:00
2018-04-13 13:42:27 +08:00
`export HEKETI_CLI_SERVER=http://localhost:8080`
2018-04-13 10:53:43 +08:00
2018-04-13 13:42:27 +08:00
* 接下来, 我们将向Heketi提供有关要管理的GlusterFS集群的信息。通过拓扑文件提供这些信息。克隆的repo中有一个示例拓扑文件, 名为topology-sample.json。拓扑指定运行GlusterFS容器的Kubernetes节点以及每个节点的相应原始块设备。
2018-04-13 10:53:43 +08:00
确保hostnames/manage指向如下所示的确切名称kubectl get nodes得到的主机名( 如ubuntu-1) , 并且hostnames/storage是存储网络的IP地址( 对应ubuntu-1的ip地址) 。
2018-04-13 13:42:27 +08:00
**IMPORTANT** : 重要提示, 目前, 必须使用与服务器版本匹配的Heketi-cli版本加载拓扑文件。另外, Heketi pod 带有可以通过 `kubectl exec ...` 访问的heketi-cli副本。
2018-04-15 17:55:11 +08:00
2018-04-13 10:53:43 +08:00
2018-04-13 11:04:35 +08:00
修改拓扑文件以反映您所做的选择, 然后如下所示部署它( 修改主机名, IP, block 设备的名称 如xvdg) :
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
heketi-client/bin/heketi-cli topology load --json=topology-sample.json
Handling connection for 57598
Found node ip-172-20-0-217.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-218.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
Found node ip-172-20-0-219.ec2.internal on cluster e6c063ba398f8e9c88a6ed720dc07dd2
Adding device /dev/xvdg ... OK
```
2018-04-13 13:14:38 +08:00
* 接下来, 我们将使用heketi为其存储其数据库提供一个卷( 不要怀疑, 就是使用这个命令, openshift和kubernetes通用, 此命令生成heketi-storage.json文件) :
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# heketi-client/bin/heketi-cli setup-openshift-heketi-storage
# kubectl create -f heketi-storage.json
```
2018-04-13 11:04:35 +08:00
> Pitfall: 注意, 如果在运行setup-openshift-heketi-storage子命令时heketi-cli报告“无空间”错误, 则可能无意中运行topology load命令的时候服务端和heketi-cli的版本不匹配造成的。停止正在运行的heketi pod( kubectl scale deployment deploy-heketi --replicas=0) , 手动删除存储块设备中的任何签名, 然后继续运行heketi pod( kubectl scale deployment deploy-heketi --replicas=1) 。然后用匹配版本的heketi-cli重新加载拓扑, 然后重试该步骤。
2018-04-13 10:53:43 +08:00
2018-04-13 13:42:27 +08:00
* 等到作业完成后, 删除bootstrap Heketi实例相关的组件:
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl delete all,service,jobs,deployment,secret --selector="deploy-heketi"
```
2018-04-13 13:42:27 +08:00
* 创建长期使用的Heketi实例( 存储持久化的) :
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl create -f heketi-deployment.json
service "heketi" created
deployment "heketi" created
```
2018-04-13 13:18:04 +08:00
* 这样做了以后, heketi db将使用GlusterFS卷, 并且每当heketi pod重新启动时都不会重置( 数据不会丢失, 存储持久化) 。
2018-04-13 10:53:43 +08:00
2018-04-13 11:04:35 +08:00
使用诸如heketi-cli cluster list和的命令heketi-cli volume list 来确认先前建立的集群存在, 并且heketi可以列出在bootstrap阶段创建的db存储卷。
2018-04-13 10:53:43 +08:00
2018-04-13 13:42:27 +08:00
# 使用样例
2018-04-13 10:53:43 +08:00
有两种方法来调配存储。常用的方法是设置一个StorageClass, 让Kubernetes为提交的PersistentVolumeClaim自动配置存储。或者, 可以通过Kubernetes手动创建和管理卷( PVs) , 或直接使用heketi-cli中的卷。
参考[gluster-kubernetes hello world example](https://github.com/gluster/gluster-kubernetes/blob/master/docs/examples/hello_world/README.md)
获取关于 storageClass 的更多信息.
# 我的示例(非翻译部分内容)
* topology文件: 我的例子( 3个节点, ubuntu-1( 192.168.5.191) ,ubuntu-2( 192.168.5.192) ,ubuntu-3( 192.168.5.193) ,每个节点2个磁盘用来做存储( sdb, sdc) )
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# cat topology-sample.json
2018-04-13 13:53:41 +08:00
```
2018-04-15 17:55:11 +08:00
```json
2018-04-13 10:53:43 +08:00
{
"clusters": [
{
"nodes": [
{
"node": {
"hostnames": {
"manage": [
"ubuntu-1"
],
"storage": [
"192.168.5.191"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-2"
],
"storage": [
"192.168.5.192"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
},
{
"node": {
"hostnames": {
"manage": [
"ubuntu-3"
],
"storage": [
"192.168.5.193"
]
},
"zone": 1
},
"devices": [
"/dev/sdb",
"/dev/sdc"
]
}
]
}
]
}
```
* 确认glusterfs和heketi的pod运行正常
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl get pod
NAME READY STATUS RESTARTS AGE
glusterfs-gf5zc 1/1 Running 2 8h
glusterfs-ngc55 1/1 Running 2 8h
glusterfs-zncjs 1/1 Running 0 2h
heketi-5c8ffcc756-x9gnv 1/1 Running 5 7h
```
2018-04-14 10:48:18 +08:00
* StorageClass yaml文件示例
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# cat storage-class-slow.yaml
2018-04-13 13:53:41 +08:00
```
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```yaml
2018-04-13 10:53:43 +08:00
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
2018-04-13 11:04:35 +08:00
name: slow #-------------SC的名字
2018-04-13 10:53:43 +08:00
provisioner: kubernetes.io/glusterfs
parameters:
2018-04-13 11:04:35 +08:00
resturl: "http://10.103.98.75:8080" #-------------heketi service的cluster ip 和端口
restuser: "admin" #-------------随便填,因为没有启用鉴权模式
2018-04-13 10:53:43 +08:00
gidMin: "40000"
gidMax: "50000"
2018-04-13 11:04:35 +08:00
volumetype: "replicate:3" #-------------申请的默认为3副本模式
2018-04-13 10:53:43 +08:00
```
* PVC举例
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# cat pvc-sample.yaml
2018-04-13 13:53:41 +08:00
```
2018-04-15 17:55:11 +08:00
```yaml
2018-04-13 10:53:43 +08:00
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: myclaim
annotations:
volume.beta.kubernetes.io/storage-class: "slow" #-------------sc的名字,需要与storageclass的名字一致
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
```
查看创建的pvc和pv
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 13:53:41 +08:00
# kubectl get pvc|grep myclaim
2018-04-13 10:53:43 +08:00
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
2018-04-13 13:04:44 +08:00
myclaim Bound pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO slow 28s
2018-04-13 10:53:43 +08:00
2018-04-13 13:53:41 +08:00
# kubectl get pv|grep myclaim
2018-04-13 10:53:43 +08:00
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
2018-04-13 13:04:44 +08:00
pvc-e98e9117-3ed7-11e8-b61d-08002795cb26 1Gi RWO Delete Bound default/myclaim slow 1m
2018-04-13 10:53:43 +08:00
```
* 可以将slow的sc设置为默认, 这样平台分配存储的时候可以自动从glusterfs集群分配pv
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl patch storageclass slow -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
storageclass.storage.k8s.io "slow" patched
# kubectl get sc
NAME PROVISIONER AGE
default fuseim.pri/ifs 1d
slow (default) kubernetes.io/glusterfs 6h
```
# 容量限额测试
已经通过Helm 部署的一个mysql2 实例, 使用存储2G, 信息查看如下:
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# helm list
NAME REVISION UPDATED STATUS CHART NAMESPACE
2018-04-15 17:55:11 +08:00
mysql2 1 Thu Apr 12 15:27:11 2018 DEPLOYED mysql-0.3.7 default
2018-04-13 10:53:43 +08:00
```
查看PVC和PV, 大小2G, mysql2-mysql
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
mysql2-mysql Bound pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO slow 19h
# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-ea4ae3e0-3e22-11e8-8bb6-08002795cb26 2Gi RWO Delete Bound default/mysql2-mysql slow 19h
```
查看mysql的pod
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 11:09:34 +08:00
# kubectl get pod|grep mysql2
2018-04-13 10:53:43 +08:00
mysql2-mysql-56d64f5b77-j2v84 1/1 Running 2 19h
```
进入mysql所在容器
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
# kubectl exec -it mysql2-mysql-56d64f5b77-j2v84 /bin/bash
```
查看挂载路径,查看挂载信息
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
root@mysql2-mysql-56d64f5b77-j2v84:/#cd /var/lib/mysql
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql#
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G 264M 1.8G 13% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
```
2018-04-13 11:30:13 +08:00
使用dd写入数据, 写入一段时间以后, 空间满了, 会报错( 报错信息有bug, 不是报空间满了, 而是报文件系统只读, 应该是glusterfs和docker配合的问题)
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# dd if=/dev/zero of=test.img bs=8M count=300
dd: error writing 'test.img': Read-only file system
dd: closing output file 'test.img': Input/output error
```
2018-04-13 11:09:34 +08:00
查看写满以后的文件大小
2018-04-13 10:53:43 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# ls -l
total 2024662
-rw-r----- 1 mysql mysql 56 Apr 12 07:27 auto.cnf
-rw-r----- 1 mysql mysql 1329 Apr 12 07:27 ib_buffer_pool
-rw-r----- 1 mysql mysql 50331648 Apr 12 12:05 ib_logfile0
-rw-r----- 1 mysql mysql 50331648 Apr 12 07:27 ib_logfile1
-rw-r----- 1 mysql mysql 79691776 Apr 12 12:05 ibdata1
-rw-r----- 1 mysql mysql 12582912 Apr 12 12:05 ibtmp1
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 mysql
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 performance_schema
drwxr-s--- 2 mysql mysql 8192 Apr 12 07:27 sys
-rw-r--r-- 1 root mysql 1880887296 Apr 13 02:47 test.img
2018-04-13 11:09:34 +08:00
```
查看挂载信息( 挂载信息显示bug, 应该是glusterfs的bug)
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 10:53:43 +08:00
root@mysql2-mysql-56d64f5b77-j2v84:/var/lib/mysql# df -h
Filesystem Size Used Avail Use% Mounted on
none 48G 9.2G 37G 21% /
tmpfs 1.5G 0 1.5G 0% /dev
tmpfs 1.5G 0 1.5G 0% /sys/fs/cgroup
/dev/mapper/ubuntu--1--vg-root 48G 9.2G 37G 21% /etc/hosts
shm 64M 0 64M 0% /dev/shm
192.168.5.191:vol_2c2227ee65b64a0225aa9bce848a9925 2.0G -16E 0 100% /var/lib/mysql
tmpfs 1.5G 12K 1.5G 1% /run/secrets/kubernetes.io/serviceaccount
tmpfs 1.5G 0 1.5G 0% /sys/firmware
```
2018-04-13 11:04:35 +08:00
查看文件夹大小, 为2G
2018-04-13 09:08:27 +08:00
2018-04-15 17:55:11 +08:00
```bash
2018-04-13 11:04:35 +08:00
# du -h
25M ./mysql
825K ./performance_schema
496K ./sys
2.0G .
```
2018-04-13 11:30:13 +08:00
如上说明glusterfs的限额作用是起效的, 限制在2G的空间大小。