kubernetes-handbook/usecases/spark-standalone-on-kuberne...

47 lines
1.5 KiB
Markdown
Raw Normal View History

# Spark standalone on Kubernetes
2017-06-22 10:27:49 +08:00
2019-10-08 23:28:08 +08:00
该项目是基于 Spark standalone 模式,对资源的分配调度还有作业状态查询的功能实在有限,对于让 spark 使用真正原生的 kubernetes 资源调度推荐大家尝试 <https://github.com/apache-spark-on-k8s/>
2017-06-22 10:27:49 +08:00
代码和使用文档见Github地址https://github.com/rootsongjc/spark-on-kubernetes
2019-10-08 23:28:08 +08:00
本文中用到的 yaml 文件可以在 `manifests/spark-standalone` 目录下找到,也可以在上面的 <https://github.com/rootsongjc/spark-on-kubernetes/> 项目的 manifests 目录下找到。
2017-06-22 10:27:49 +08:00
## 在Kubernetes上启动spark
创建名为spark-cluster的namespace所有操作都在该namespace中进行。
所有yaml文件都在`manifests`目录下。
2019-10-08 23:28:08 +08:00
```bash
2017-06-22 10:27:49 +08:00
$ kubectl create -f manifests/
```
将会启动一个拥有三个worker的spark集群和zeppelin。
同时在该namespace中增加ingress配置将spark的UI和zeppelin页面都暴露出来可以在集群外部访问。
该ingress后端使用traefik。
## 访问spark
通过上面对ingress的配置暴露服务需要修改本机的/etc/hosts文件增加以下配置使其能够解析到上述service。
2019-10-08 23:28:08 +08:00
```ini
2017-06-22 10:27:49 +08:00
172.20.0.119 zeppelin.traefik.io
172.20.0.119 spark.traefik.io
```
172.20.0.119是我设置的VIP地址VIP的设置和traefik的配置请查看[kubernetes-handbook](https://github.com/rootsongjc/kubernetes-handbook)。
**spark ui**
访问 `http://spark.traefik.io`
2017-06-22 10:27:49 +08:00
![spark master ui](../images/spark-ui.jpg)
**zeppelin ui**
访问 `http://zepellin.treafik.io`
2017-06-22 10:27:49 +08:00
![zeppelin ui](../images/zeppelin-ui.jpg)