发布数据持久化问题
parent
a06c70d184
commit
1a2b73a4de
|
@ -49,6 +49,7 @@
|
|||
- [4.3.3 配置最佳实践](practice/configuration-best-practice.md)
|
||||
- [4.3.4 集群及应用监控](practice/monitor.md)
|
||||
- [4.3.5 使用Jenkins进行持续构建与发布](practice/jenkins-ci-cd.md)
|
||||
- [4.3.6 数据持久化问题](practice/data-persistence-problem.md)
|
||||
- [4.4 存储管理](practice/storage.md)
|
||||
- [4.4.1 GlusterFS](practice/glusterfs.md)
|
||||
- [4.4.1.1 使用GlusterFS做持久化存储](practice/using-glusterfs-for-persistent-storage.md)
|
||||
|
|
Binary file not shown.
After Width: | Height: | Size: 38 KiB |
|
@ -0,0 +1,23 @@
|
|||
## 数据落盘问题的由来
|
||||
|
||||
这本质上是数据持久化问题,对于有些应用依赖持久化数据,比如应用自身产生的日志需要持久化存储的情况,需要保证容器里的数据不丢失,在Pod挂掉后,其他应用依然可以访问到这些数据,因此我们需要将数据持久化存储起来。
|
||||
|
||||
## 数据落盘问题解决方案
|
||||
|
||||
下面以一个应用的日志收集为例,该日志需要持久化收集到ElasticSearch集群中,如果不考虑数据丢失的情形,可以直接使用前面提到的[应用日志收集](app-log-collection.md)一节中的方法,但考虑到Pod挂掉时logstash(或filebeat)并没有收集完该pod内日志的情形,我们想到了如下这种解决方案,示意图如下:
|
||||
|
||||
![日志持久化收集解决方案示意图](../images/log-persistence-logstash.png)
|
||||
|
||||
1. 首先需要给数据落盘的应用划分node,即这些应用只调用到若干台主机上
|
||||
2. 给这若干台主机增加label
|
||||
3. 使用`deamonset`方式在这若干台主机上启动logstash的Pod(使用nodeSelector来限定在这几台主机上,我们在边缘节点启动的`treafik`也是这种模式)
|
||||
4. 将应用的数据通过volume挂载到宿主机上
|
||||
5. Logstash(或者filebeat)收集宿主机上的数据,数据持久化不会丢失
|
||||
|
||||
## Side-effect
|
||||
|
||||
1. 首先kubernetes本身就提供了数据持久化的解决方案statefulset,不过需要用到公有云的存储货其他分布式存储,这一点在我们的私有云环境里被否定了。
|
||||
2. 需要管理主机的label,增加运维复杂度,但是具体问题具体对待
|
||||
3. 必须保证应用启动顺序,需要先启动logstash
|
||||
4. 为主机打label使用nodeSelector的方式限制了资源调度的范围
|
||||
|
Loading…
Reference in New Issue