kubernetes-handbook/usecases/big-data.md

39 lines
2.0 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 大数据
Kubernetes community中已经有了一个[Big data SIG](https://github.com/kubernetes/community/tree/master/sig-big-data)大家可以通过这个SIG了解kubernetes结合大数据的应用。
在Swarm、Mesos、kubernetes这三种流行的容器编排调度架构中Mesos对于大数据应用支持是最好的spark原生就是运行在mesos上的当然也可以容器化运行在kubernetes上。当前在kubernetes上运行大数据应用主要是spark应用。
## Spark on Kubernetes
Spark原生支持standalone、mesos和YARN的调度方式当前kubernetes社区正在支持kubernetes的原生调度来运行spark - 。
当然您也可以在kubernetes直接部署spark on yarn或者spark standalone模式仍然沿用已有的
## Spark Standalone
使用spark standalone模式在kubernetes上运行kubernetes不负责spark任务的调度。参考[Spark standalone on Kubernetes](spark-standalone-on-kubernetes.md)
这种模式中使用的spark本身负责任务调度kubernetes只是作为一个spark的部署平台。
## Spark on Yarn
使用StatefulSet和Headless serverless来实现请参考 [Spark on Yarn](https://github.com/rootsongjc/kube-yarn/tree/sz-test)
这种模式中kubernetes依然不负责spark应用的调度而只是将Yarn换了一个部署环境而已。
下面是架构图:
![Spark on yarn with kubernetes](../images/spark-on-yarn-with-kubernetes.png)
### Spark on Kubernetes
Spark on kubernetes使用kubernetes作为调度引擎spark的任务直接调度到node节点上。参考[运行支持kubernetes原生调度的Spark程序](running-spark-with-kubernetes-native-scheduler.md)。
### 调度方式总结
下图显示的是三种调度方式中单个kubernetes node节点上运行的spark相关容器的调度情况。
![在kubernetes上使用多种调度方式](../images/spark-on-kubernetes-with-different-schedulers.jpg)
毫无疑问使用kubernetes原生调度的spark任务才是最节省资源的。