kubernetes-handbook/develop/using-vagrant-and-virtualbo...

291 lines
8.2 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 本地分布式开发环境搭建使用Vagrant和Virtualbox
**注意:本文停止更新,请直接转到[kubernetes-vagrant-centos-cluster](https://github.com/rootsongjc/kubernetes-vagrant-centos-cluster)仓库浏览最新版本。**
---
当我们需要在本地开发时更希望能够有一个开箱即用又可以方便定制的分布式开发环境这样才能对Kubernetes本身和应用进行更好的测试。现在我们使用[Vagrant](https://www.vagrantup.com/)和[VirtualBox](https://www.virtualbox.org/wiki/Downloads)来创建一个这样的环境。
部署时需要使用的配置文件和`vagrantfile`请见https://github.com/rootsongjc/kubernetes-vagrant-centos-cluster
**注意**kube-proxy使用ipvs模式。
## 准备环境
需要准备以下软件和环境:
- 8G以上内存
- Vagrant 2.0+
- Virtualbox 5.0 +
- 提前下载kubernetes1.9.1以上版本的release压缩包
- Mac/Linux**不支持Windows**
## 集群
我们使用Vagrant和Virtualbox安装包含3个节点的kubernetes集群其中master节点同时作为node节点。
| IP | 主机名 | 组件 |
| ------------ | ------ | ------------------------------------------------------------ |
| 172.17.8.101 | node1 | kube-apiserver、kube-controller-manager、kube-scheduler、etcd、kubelet、docker、flannel、dashboard |
| 172.17.8.102 | node2 | kubelet、docker、flannel、traefik |
| 172.17.8.103 | node3 | kubelet、docker、flannel |
**注意**以上的IP、主机名和组件都是固定在这些节点的即使销毁后下次使用vagrant重建依然保持不变。
容器IP范围172.33.0.0/30
Kubernetes service IP范围10.254.0.0/16
## 安装的组件
安装完成后的集群包含以下组件:
- flannel`host-gw`模式)
- kubernetes dashboard 1.8.2
- etcd单节点
- kubectl
- CoreDNS
- kubernetes版本根据下载的kubernetes安装包而定
**可选插件**
- Heapster + InfluxDB + Grafana
- ElasticSearch + Fluentd + Kibana
- Istio service mesh
## 使用说明
确保安装好以上的准备环境后执行下列命令启动kubernetes集群
```bash
git clone https://github.com/rootsongjc/kubernetes-vagrant-centos-cluster.git
cd kubernetes-vagrant-centos-cluster
vagrant up
```
**注意**克隆完Git仓库后需要提前下载kubernetes的压缩包到`kubenetes-vagrant-centos-cluster`目录下,包括如下两个文件:
- kubernetes-client-linux-amd64.tar.gz
- kubernetes-server-linux-amd64.tar.gz
如果是首次部署,会自动下载`centos/7`的box这需要花费一些时间另外每个节点还需要下载安装一系列软件包整个过程大概需要10几分钟。
如果您在运行`vagrant up`的过程中发现无法下载`centos/7`的box可以手动下载后将其添加到vagrant中。
**手动添加centos/7 box**
```bash
wget -c http://cloud.centos.org/centos/7/vagrant/x86_64/images/CentOS-7-x86_64-Vagrant-1801_02.VirtualBox.box
vagrant box add CentOS-7-x86_64-Vagrant-1801_02.VirtualBox.box --name centos/7
```
这样下次运行`vagrant up`的时候就会自动读取本地的`centos/7` box而不会再到网上下载。
### 访问kubernetes集群
访问Kubernetes集群的方式有三种
- 本地访问
- 在VM内部访问
- kubernetes dashboard
**通过本地访问**
可以直接在你自己的本地环境中操作该kubernetes集群而无需登录到虚拟机中执行以下步骤
将`conf/admin.kubeconfig`文件放到`~/.kube/config`目录下即可在本地使用`kubectl`命令操作集群。
```bash
mkdir -p ~/.kube
cp conf/admin.kubeconfig ~/.kube/config
```
我们推荐您使用这种方式。
**在虚拟机内部访问**
如果有任何问题可以登录到虚拟机内部调试:
```bash
vagrant ssh node1
sudo -i
kubectl get nodes
```
**Kubernetes dashboard**
还可以直接通过dashboard UI来访问https://172.17.8.101:8443
可以在本地执行以下命令获取token的值需要提前安装kubectl
```bash
kubectl -n kube-system describe secret `kubectl -n kube-system get secret|grep admin-token|cut -d " " -f1`|grep "token:"|tr -s " "|cut -d " " -f2
```
**注意**token的值也可以在`vagrant up`的日志的最后看到。
**Heapster监控**
创建Heapster监控
```bash
kubectl apply -f addon/heapster/
```
访问Grafana
使用Ingress方式暴露的服务在本地`/etc/hosts`中增加一条配置:
```ini
172.17.8.102 grafana.jimmysong.io
```
访问Grafana<http://grafana.jimmysong.io>
**Traefik**
部署Traefik ingress controller和增加ingress配置
```bash
kubectl apply -f addon/traefik-ingress
```
在本地`/etc/hosts`中增加一条配置:
```ini
172.17.8.102 traefik.jimmysong.io
```
访问Traefik UI<http://traefik.jimmysong.io>
**EFK**
使用EFK做日志收集。
```bash
kubectl apply -f addon/efk/
```
**注意**运行EFK的每个节点需要消耗很大的CPU和内存请保证每台虚拟机至少分配了4G内存。
**Helm**
用来部署helm。
```bash
hack/deploy-helm.sh
```
### Service Mesh
我们使用 [istio](https://istio.io) 作为 service mesh。
**安装**
```bash
kubectl apply -f addon/istio/
```
**运行示例**
```bash
kubectl apply -n default -f <(istioctl kube-inject -f yaml/istio-bookinfo/bookinfo.yaml)
istioctl create -f yaml/istio-bookinfo/bookinfo-gateway.yaml
```
在您自己的本地主机的`/etc/hosts`文件中增加如下配置项。
```
172.17.8.102 grafana.istio.jimmysong.io
172.17.8.102 servicegraph.istio.jimmysong.io
```
我们可以通过下面的URL地址访问以上的服务。
| Service | URL |
| ------------ | ------------------------------------------------------------ |
| grafana | http://grafana.istio.jimmysong.io |
| servicegraph | http://servicegraph.istio.jimmysong.io/dotviz>, <http://servicegraph.istio.jimmysong.io/graph>,http://servicegraph.istio.jimmysong.io/force/forcegraph.html |
| tracing | http://172.17.8.101:$JAEGER_PORT |
| productpage | http://172.17.8.101:$GATEWAY_PORT/productpage |
**注意**`JAEGER_PORT`可以通过`kubectl -n istio-system get svc tracing -o jsonpath='{.spec.ports[0].nodePort}'`获取,`GATEWAY_PORT`可以通过`kubectl -n istio-system get svc istio-ingressgateway -o jsonpath='{.spec.ports[0].nodePort}'`获取。
详细信息请参阅 https://istio.io/docs/guides/bookinfo.html
## 管理
除了特别说明以下命令都在当前的repo目录下操作。
### 挂起
将当前的虚拟机挂起,以便下次恢复。
```bash
vagrant suspend
```
### 恢复
恢复虚拟机的上次状态。
```bash
vagrant resume
```
注意:我们每次挂起虚拟机后再重新启动它们的时候,看到的虚拟机中的时间依然是挂载时候的时间,这样将导致监控查看起来比较麻烦。因此请考虑先停机再重新启动虚拟机。
### 重启
停机后重启启动。
```bash
vagrant halt
vagrant up
# login to node1
vagrant ssh node1
# run the prosivision scripts
/vagrant/hack/k8s-init.sh
exit
# login to node2
vagrant ssh node2
# run the prosivision scripts
/vagrant/hack/k8s-init.sh
exit
# login to node3
vagrant ssh node3
# run the prosivision scripts
/vagrant/hack/k8s-init.sh
sudo -i
cd /vagrant/hack
./deploy-base-services.sh
exit
```
现在你已经拥有一个完整的基础的kubernetes运行环境在该repo的根目录下执行下面的命令可以获取kubernetes dahsboard的admin用户的token。
```bash
hack/get-dashboard-token.sh
```
根据提示登录即可。
### 清理
清理虚拟机。
```bash
vagrant destroy
rm -rf .vagrant
```
### 注意
仅做开发测试使用,不要在生产环境使用该项目。
## 参考
- [Kubernetes handbook - jimmysong.io](https://jimmysong.io/kubernetes-handbook)
- [duffqiu/centos-vagrant](https://github.com/duffqiu/centos-vagrant)
- [kubernetes-vagrant-centos-cluster](https://github.com/rootsongjc/kubernetes-vagrant-centos-cluster)
- [Kubernetes 1.8 kube-proxy 开启 ipvs](https://mritd.me/2017/10/10/kube-proxy-use-ipvs-on-kubernetes-1.8/#%E4%B8%80%E7%8E%AF%E5%A2%83%E5%87%86%E5%A4%87)