kubernetes-handbook/practice/data-persistence-problem.md

24 lines
1.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

## 数据落盘问题的由来
这本质上是数据持久化问题对于有些应用依赖持久化数据比如应用自身产生的日志需要持久化存储的情况需要保证容器里的数据不丢失在Pod挂掉后其他应用依然可以访问到这些数据因此我们需要将数据持久化存储起来。
## 数据落盘问题解决方案
下面以一个应用的日志收集为例该日志需要持久化收集到ElasticSearch集群中如果不考虑数据丢失的情形可以直接使用前面提到的[应用日志收集](app-log-collection.md)一节中的方法但考虑到Pod挂掉时logstash或filebeat并没有收集完该pod内日志的情形我们想到了如下这种解决方案示意图如下
![日志持久化收集解决方案示意图](../images/log-persistence-logstash.png)
1. 首先需要给数据落盘的应用划分node即这些应用只调用到若干台主机上
2. 给这若干台主机增加label
3. 使用`deamonset`方式在这若干台主机上启动logstash的Pod使用nodeSelector来限定在这几台主机上我们在边缘节点启动的`treafik`也是这种模式)
4. 将应用的数据通过volume挂载到宿主机上
5. Logstash或者filebeat收集宿主机上的数据数据持久化不会丢失
## Side-effect
1. 首先kubernetes本身就提供了数据持久化的解决方案statefulset不过需要用到公有云的存储或其他分布式存储这一点在我们的私有云环境里被否定了。
2. 需要管理主机的label增加运维复杂度但是具体问题具体对待
3. 必须保证应用启动顺序需要先启动logstash
4. 为主机打label使用nodeSelector的方式限制了资源调度的范围