kubernetes-handbook/practice/ceph.md

65 lines
6.2 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# Ceph的简要介绍
本文参考翻译自[这篇文章](https://www.stratoscale.com/blog/storage/introduction-to-ceph/)的部分内容。
Ceph是一个开源的分布式对象块和文件存储。该项目诞生于2003年是塞奇·韦伊的博士论文的结果然后在2006年在LGPL 2.1许可证发布。Ceph已经与Linux内核KVM集成并且默认包含在许多GNU / Linux发行版中。
## 介绍
当前的工作负载和基础设施需要不同的数据访问方法对象文件Ceph支持所有这些方法。它旨在具有可扩展性并且没有单点故障。它是一款开源软件可以在生产环境通用硬件上运行。
RADOS 可靠的自动分布式对象存储是Ceph的核心组件。RADOS对象和当今流行的对象之间存在着重要的区别例如Amazon S3OpenStack Swift或Ceph的RADOS对象网关提供的对象。从2005年到2010年对象存储设备OSD成为一个流行的概念。这些OSD提供了强大的一致性提供不同的接口并且每个对象通常驻留在单个设备上。
在RADOS中有几种操作对象的方法
* 在用CC ++JavaPHP和Python编写的应用程序中使用客户端库librados
* 使用命令行工具'rados'
* 使用与S3Amazon和SwiftOpenStack兼容的现有API
RADOS是一个由Ceph节点组成的集群。有两种类型的节点
* Ceph存储设备节点
* Ceph监控节点
每个Ceph存储设备节点运行一个或多个Ceph OSD守护进程每个磁盘设备一个。OSD是一个Linux进程守护进程可处理与其分配的磁盘HDD或SSD相关的所有操作。所述OSD守护程序访问本地文件系统来存储数据和元数据而不是直接与磁盘通信。Ceph常用的文件系统是XFSbtrfs和ext4。每个OSD还需要一个日志用于对RADOS对象进行原子更新。日志可能驻留在单独的磁盘上通常是SSD以提高性能但同一个磁盘可以被同一节点上的多个OSD使用。
该Ceph的监控节点上运行的单个Ceph的监控守护。Ceph Monitor守护程序维护集群映射的主副本。虽然Ceph集群可以与单个监控节点一起工作但需要更多设备来确保高可用性。建议使用三个或更多Ceph Monitor节点因为它们使用法定数量来维护集群映射。需要大多数Monitor来确认仲裁数因此建议使用奇数个Monitor。例如3个或4个Monitor都可以防止单个故障而5个Monitor可以防止两个故障。
Ceph OSD守护进程和Ceph客户端可以感知群集因此每个Ceph OSD守护进程都可以直接与其他Ceph OSD守护进程和Ceph监视器进行通信。此外Ceph客户端可直接与Ceph OSD守护进程通信以读取和写入数据。
Ceph对象网关守护进程radosgw 提供了两个API
* API与Amazon S3 RESTful AP的子集兼容
* API与OpenStack Swift API的子集兼容
如果RADOS和radosgw为客户提供对象存储服务那么Ceph如何被用作块和文件存储
Ceph中的分布式块存储Ceph RDB实现为对象存储顶部的薄层。Ceph RADOS块设备RBD存储分布在群集中多个Ceph OSD上的数据。RBD利用RADOS功能如快照复制和一致性。RBD使用Linux内核模块或librbd库与RADOS通信。此外KVM管理程序可以利用librbd允许虚拟机访问Ceph卷。
Ceph文件系统CephFS是一个符合POSIX的文件系统使用Ceph集群来存储其数据。所述Ceph的文件系统要求Ceph的集群中的至少一个Ceph的元数据服务器MDS。MDS处理所有文件操作例如文件和目录列表属性所有权等。MDS利用RADOS对象来存储文件系统数据和属性。它可以水平扩展因此您可以将更多的Ceph元数据服务器添加到您的群集中以支持更多的文件系统操作客户端。
## Kubernetes和Ceph
Kubernetes支持Ceph的块存储Ceph RDB)和文件存储CephFS作为Kubernetes的持久存储后端。Kubernetes自带Ceph RDB的internal provisioner可以配置动态提供如果要使用CephFS作为动态存储提供需要安装外置的provisioner。
与Ceph相关的Kubernetes StorageClass的[官方文档介绍](https://kubernetes.io/docs/concepts/storage/storage-classes/)
| Volume Plugin | Internal Provisioner| Config Example |
| :--- | :---: | :---: |
| AWSElasticBlockStore | ✓ | [AWS](#aws) |
| AzureFile | ✓ | [Azure File](#azure-file) |
| AzureDisk | ✓ | [Azure Disk](#azure-disk) |
| CephFS | - | - |
| Cinder | ✓ | [OpenStack Cinder](#openstack-cinder)|
| FC | - | - |
| FlexVolume | - | - |
| Flocker | ✓ | - |
| GCEPersistentDisk | ✓ | [GCE](#gce) |
| Glusterfs | ✓ | [Glusterfs](#glusterfs) |
| iSCSI | - | - |
| PhotonPersistentDisk | ✓ | - |
| Quobyte | ✓ | [Quobyte](#quobyte) |
| NFS | - | - |
| RBD | ✓ | [Ceph RBD](#ceph-rbd) |
| VsphereVolume | ✓ | [vSphere](#vsphere) |
| PortworxVolume | ✓ | [Portworx Volume](#portworx-volume) |
| ScaleIO | ✓ | [ScaleIO](#scaleio) |
| StorageOS | ✓ | [StorageOS](#storageos) |
| Local | - | [Local](#local) |
后续文档将介绍Kubernetes如何与Ceph RDB 和 CephFS集成。