2017-08-21 17:44:43 +08:00
<!DOCTYPE HTML>
2017-09-19 22:01:07 +08:00
< html lang = "zh-hans" >
2017-08-21 17:44:43 +08:00
< head >
< meta charset = "UTF-8" >
< meta content = "text/html; charset=utf-8" http-equiv = "Content-Type" >
< title > 2.2.4 Service · Kubernetes Handbook< / title >
< meta http-equiv = "X-UA-Compatible" content = "IE=edge" / >
< meta name = "description" content = "" >
< meta name = "generator" content = "GitBook 3.2.2" >
< meta name = "author" content = "Jimmy Song" >
< link rel = "stylesheet" href = "../gitbook/style.css" >
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-splitter/splitter.css" >
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-page-toc-button/plugin.css" >
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-image-captions/image-captions.css" >
2017-10-09 15:28:05 +08:00
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-back-to-top-button/plugin.css" >
2017-08-21 17:44:43 +08:00
2017-10-09 15:28:05 +08:00
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-search-plus/search.css" >
2017-09-19 21:38:03 +08:00
2017-10-09 15:28:05 +08:00
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-tbfed-pagefooter/footer.css" >
2017-08-21 17:44:43 +08:00
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-highlight/website.css" >
< link rel = "stylesheet" href = "../gitbook/gitbook-plugin-fontsettings/website.css" >
2017-10-09 15:28:05 +08:00
2017-08-21 17:44:43 +08:00
< meta name = "HandheldFriendly" content = "true" / >
< meta name = "viewport" content = "width=device-width, initial-scale=1, user-scalable=no" >
< meta name = "apple-mobile-web-app-capable" content = "yes" >
< meta name = "apple-mobile-web-app-status-bar-style" content = "black" >
< link rel = "apple-touch-icon-precomposed" sizes = "152x152" href = "../gitbook/images/apple-touch-icon-precomposed-152.png" >
< link rel = "shortcut icon" href = "../gitbook/images/favicon.ico" type = "image/x-icon" >
< link rel = "next" href = "volume.html" / >
< link rel = "prev" href = "namespace.html" / >
2017-10-09 15:28:05 +08:00
< link rel = "shortcut icon" href = '../favicon.ico' type = "image/x-icon" >
< link rel = "bookmark" href = '../favicon.ico' type = "image/x-icon" >
< style >
@media only screen and (max-width: 640px) {
.book-header .hidden-mobile {
display: none;
}
}
< / style >
< script >
window["gitbook-plugin-github-buttons"] = {"repo":"rootsongjc/kubernetes-handbook","types":["star"],"size":"small"};
< / script >
2017-08-21 17:44:43 +08:00
< / head >
< body >
< div class = "book" >
< div class = "book-summary" >
< div id = "book-search-input" role = "search" >
2017-09-19 22:01:07 +08:00
< input type = "text" placeholder = "输入并搜索" / >
2017-08-21 17:44:43 +08:00
< / div >
< nav role = "navigation" >
< ul class = "summary" >
2017-10-09 15:28:05 +08:00
< li >
< a href = "https://jimmysong.io" target = "_blank" class = "custom-link" > Home< / a >
< / li >
2017-08-21 17:44:43 +08:00
2017-10-09 15:28:05 +08:00
< li class = "divider" > < / li >
2017-08-21 17:44:43 +08:00
< li class = "chapter " data-level = "1.1" data-path = "../" >
< a href = "../" >
1. 前言
< / a >
< / li >
< li class = "chapter " data-level = "1.2" data-path = "./" >
< a href = "./" >
2. 概念原理
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.2.1" data-path = "concepts.html" >
< a href = "concepts.html" >
2.1 设计理念
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2" data-path = "objects.html" >
< a href = "objects.html" >
2017-09-03 13:29:38 +08:00
2.2 Objects
2017-08-21 17:44:43 +08:00
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.2.2.1" data-path = "pod-overview.html" >
< a href = "pod-overview.html" >
2.2.1 Pod
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.2.2.1.1" data-path = "pod.html" >
< a href = "pod.html" >
2.2.1.1 Pod解析
< / a >
2017-08-31 23:28:33 +08:00
< / li >
< li class = "chapter " data-level = "1.2.2.1.2" data-path = "init-containers.html" >
< a href = "init-containers.html" >
2.2.1.2 Init容器
< / a >
2017-09-03 15:58:39 +08:00
< / li >
< li class = "chapter " data-level = "1.2.2.1.3" data-path = "pod-security-policy.html" >
< a href = "pod-security-policy.html" >
2.2.1.3 Pod安全策略
< / a >
2017-09-17 15:39:26 +08:00
< / li >
< li class = "chapter " data-level = "1.2.2.1.4" data-path = "pod-lifecycle.html" >
< a href = "pod-lifecycle.html" >
2.2.1.4 Pod的生命周期
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.2.2.2" data-path = "node.html" >
< a href = "node.html" >
2.2.2 Node
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.3" data-path = "namespace.html" >
< a href = "namespace.html" >
2.2.3 Namespace
< / a >
< / li >
< li class = "chapter active" data-level = "1.2.2.4" data-path = "service.html" >
< a href = "service.html" >
2.2.4 Service
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.5" data-path = "volume.html" >
< a href = "volume.html" >
2.2.5 Volume和Persistent Volume
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.6" data-path = "deployment.html" >
< a href = "deployment.html" >
2.2.6 Deployment
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.7" data-path = "secret.html" >
< a href = "secret.html" >
2.2.7 Secret
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.8" data-path = "statefulset.html" >
< a href = "statefulset.html" >
2.2.8 StatefulSet
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.9" data-path = "daemonset.html" >
< a href = "daemonset.html" >
2.2.9 DaemonSet
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.10" data-path = "serviceaccount.html" >
< a href = "serviceaccount.html" >
2.2.10 ServiceAccount
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.11" data-path = "replicaset.html" >
< a href = "replicaset.html" >
2.2.11 ReplicationController和ReplicaSet
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.12" data-path = "job.html" >
< a href = "job.html" >
2.2.12 Job
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.13" data-path = "cronjob.html" >
< a href = "cronjob.html" >
2.2.13 CronJob
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.14" data-path = "ingress.html" >
< a href = "ingress.html" >
2.2.14 Ingress
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.15" data-path = "configmap.html" >
< a href = "configmap.html" >
2.2.15 ConfigMap
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.16" data-path = "horizontal-pod-autoscaling.html" >
< a href = "horizontal-pod-autoscaling.html" >
2.2.16 Horizontal Pod Autoscaling
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.17" data-path = "label.html" >
< a href = "label.html" >
2.2.17 Label
< / a >
2017-09-03 15:58:39 +08:00
< / li >
< li class = "chapter " data-level = "1.2.2.18" data-path = "garbage-collection.html" >
< a href = "garbage-collection.html" >
2.2.18 垃圾收集
< / a >
< / li >
< li class = "chapter " data-level = "1.2.2.19" data-path = "network-policy.html" >
< a href = "network-policy.html" >
2.2.19 NetworkPolicy
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.3" data-path = "../guide/" >
< a href = "../guide/" >
3. 用户指南
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.3.1" data-path = "../guide/resource-configuration.html" >
< a href = "../guide/resource-configuration.html" >
2017-09-28 21:20:49 +08:00
3.1 资源对象配置
2017-08-21 17:44:43 +08:00
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.3.1.1" data-path = "../guide/configure-liveness-readiness-probes.html" >
< a href = "../guide/configure-liveness-readiness-probes.html" >
3.1.1 配置Pod的liveness和readiness探针
< / a >
< / li >
< li class = "chapter " data-level = "1.3.1.2" data-path = "../guide/configure-pod-service-account.html" >
< a href = "../guide/configure-pod-service-account.html" >
3.1.2 配置Pod的Service Account
< / a >
2017-09-28 21:20:49 +08:00
< / li >
< li class = "chapter " data-level = "1.3.1.3" data-path = "../guide/secret-configuration.html" >
< a href = "../guide/secret-configuration.html" >
3.1.3 Secret配置
< / a >
2017-10-10 14:51:45 +08:00
< / li >
< li class = "chapter " data-level = "1.3.1.4" data-path = "../guide/resource-quota-management.html" >
< a href = "../guide/resource-quota-management.html" >
3.2.3 管理namespace中的资源配额
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.3.2" data-path = "../guide/command-usage.html" >
< a href = "../guide/command-usage.html" >
3.2 命令使用
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.3.2.1" data-path = "../guide/using-kubectl.html" >
< a href = "../guide/using-kubectl.html" >
3.2.1 使用kubectl
< / a >
2017-09-16 20:56:43 +08:00
< / li >
< li class = "chapter " data-level = "1.3.2.2" data-path = "../guide/docker-cli-to-kubectl.html" >
< a href = "../guide/docker-cli-to-kubectl.html" >
3.2.2 docker用户过度到kubectl命令行指南
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
2017-09-07 12:29:13 +08:00
< li class = "chapter " data-level = "1.3.3" data-path = "../guide/cluster-security-management.html" >
2017-08-21 17:44:43 +08:00
2017-09-07 12:29:13 +08:00
< a href = "../guide/cluster-security-management.html" >
2017-08-21 17:44:43 +08:00
2017-09-07 12:29:13 +08:00
3.3 集群安全性管理
2017-08-21 17:44:43 +08:00
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.3.3.1" data-path = "../guide/managing-tls-in-a-cluster.html" >
< a href = "../guide/managing-tls-in-a-cluster.html" >
3.3.1 管理集群中的TLS
< / a >
2017-08-21 18:44:34 +08:00
< / li >
< li class = "chapter " data-level = "1.3.3.2" data-path = "../guide/kubelet-authentication-authorization.html" >
< a href = "../guide/kubelet-authentication-authorization.html" >
3.3.2 kubelet的认证授权
< / a >
< / li >
< li class = "chapter " data-level = "1.3.3.3" data-path = "../guide/tls-bootstrapping.html" >
< a href = "../guide/tls-bootstrapping.html" >
3.3.3 TLS bootstrap
< / a >
2017-08-31 14:23:44 +08:00
< / li >
< li class = "chapter " data-level = "1.3.3.4" data-path = "../guide/kubectl-user-authentication-authorization.html" >
< a href = "../guide/kubectl-user-authentication-authorization.html" >
3.3.4 kubectl的用户认证授权
< / a >
< / li >
< li class = "chapter " data-level = "1.3.3.5" data-path = "../guide/rbac.html" >
< a href = "../guide/rbac.html" >
3.3.5 RBAC——基于角色的访问控制
< / a >
2017-09-07 14:13:59 +08:00
< / li >
< li class = "chapter " data-level = "1.3.3.6" data-path = "../guide/ip-masq-agent.html" >
< a href = "../guide/ip-masq-agent.html" >
3.3.6 IP伪装代理
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.3.4" data-path = "../guide/access-kubernetes-cluster.html" >
< a href = "../guide/access-kubernetes-cluster.html" >
3.4 访问 Kubernetes 集群
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.3.4.1" data-path = "../guide/access-cluster.html" >
< a href = "../guide/access-cluster.html" >
3.4.1 访问集群
< / a >
< / li >
< li class = "chapter " data-level = "1.3.4.2" data-path = "../guide/authenticate-across-clusters-kubeconfig.html" >
< a href = "../guide/authenticate-across-clusters-kubeconfig.html" >
3.4.2 使用 kubeconfig 文件配置跨集群认证
< / a >
< / li >
< li class = "chapter " data-level = "1.3.4.3" data-path = "../guide/connecting-to-applications-port-forward.html" >
< a href = "../guide/connecting-to-applications-port-forward.html" >
3.4.3 通过端口转发访问集群中的应用程序
< / a >
< / li >
< li class = "chapter " data-level = "1.3.4.4" data-path = "../guide/service-access-application-cluster.html" >
< a href = "../guide/service-access-application-cluster.html" >
3.4.4 使用 service 访问群集中的应用程序
< / a >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.3.5" data-path = "../guide/application-development-deployment-flow.html" >
< a href = "../guide/application-development-deployment-flow.html" >
3.5 在kubernetes中开发部署应用
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.3.5.1" data-path = "../guide/deploy-applications-in-kubernetes.html" >
< a href = "../guide/deploy-applications-in-kubernetes.html" >
3.5.1 适用于kubernetes的应用开发部署流程
< / a >
2017-08-21 18:44:34 +08:00
< / li >
< li class = "chapter " data-level = "1.3.5.2" data-path = "../guide/migrating-hadoop-yarn-to-kubernetes.html" >
< a href = "../guide/migrating-hadoop-yarn-to-kubernetes.html" >
3.5.2 迁移传统应用到kubernetes中——以Hadoop YARN为例
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.4" data-path = "../practice/" >
< a href = "../practice/" >
4. 最佳实践
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.1" data-path = "../practice/install-kbernetes1.6-on-centos.html" >
< a href = "../practice/install-kbernetes1.6-on-centos.html" >
4.1 在CentOS上部署kubernetes1.6集群
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.1.1" data-path = "../practice/create-tls-and-secret-key.html" >
< a href = "../practice/create-tls-and-secret-key.html" >
4.1.1 创建TLS证书和秘钥
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.2" data-path = "../practice/create-kubeconfig.html" >
< a href = "../practice/create-kubeconfig.html" >
4.1.2 创建kubeconfig文件
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.3" data-path = "../practice/etcd-cluster-installation.html" >
< a href = "../practice/etcd-cluster-installation.html" >
4.1.3 创建高可用etcd集群
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.4" data-path = "../practice/kubectl-installation.html" >
< a href = "../practice/kubectl-installation.html" >
4.1.4 安装kubectl命令行工具
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.5" data-path = "../practice/master-installation.html" >
< a href = "../practice/master-installation.html" >
4.1.5 部署master节点
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.6" data-path = "../practice/node-installation.html" >
< a href = "../practice/node-installation.html" >
4.1.6 部署node节点
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.7" data-path = "../practice/kubedns-addon-installation.html" >
< a href = "../practice/kubedns-addon-installation.html" >
4.1.7 安装kubedns插件
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.8" data-path = "../practice/dashboard-addon-installation.html" >
< a href = "../practice/dashboard-addon-installation.html" >
4.1.8 安装dashboard插件
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.9" data-path = "../practice/heapster-addon-installation.html" >
< a href = "../practice/heapster-addon-installation.html" >
4.1.9 安装heapster插件
< / a >
< / li >
< li class = "chapter " data-level = "1.4.1.10" data-path = "../practice/efk-addon-installation.html" >
< a href = "../practice/efk-addon-installation.html" >
4.1.10 安装EFK插件
< / a >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.4.2" data-path = "../practice/service-discovery-and-loadbalancing.html" >
< a href = "../practice/service-discovery-and-loadbalancing.html" >
4.2 服务发现与负载均衡
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.2.1" data-path = "../practice/traefik-ingress-installation.html" >
< a href = "../practice/traefik-ingress-installation.html" >
4.2.1 安装Traefik ingress
< / a >
< / li >
< li class = "chapter " data-level = "1.4.2.2" data-path = "../practice/distributed-load-test.html" >
< a href = "../practice/distributed-load-test.html" >
4.2.2 分布式负载测试
< / a >
< / li >
< li class = "chapter " data-level = "1.4.2.3" data-path = "../practice/network-and-cluster-perfermance-test.html" >
< a href = "../practice/network-and-cluster-perfermance-test.html" >
4.2.3 网络和集群性能测试
< / a >
< / li >
< li class = "chapter " data-level = "1.4.2.4" data-path = "../practice/edge-node-configuration.html" >
< a href = "../practice/edge-node-configuration.html" >
4.2.4 边缘节点配置
< / a >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.4.3" data-path = "../practice/operation.html" >
< a href = "../practice/operation.html" >
4.3 运维管理
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.3.1" data-path = "../practice/service-rolling-update.html" >
< a href = "../practice/service-rolling-update.html" >
4.3.1 服务滚动升级
< / a >
< / li >
< li class = "chapter " data-level = "1.4.3.2" data-path = "../practice/app-log-collection.html" >
< a href = "../practice/app-log-collection.html" >
4.3.2 应用日志收集
< / a >
< / li >
< li class = "chapter " data-level = "1.4.3.3" data-path = "../practice/configuration-best-practice.html" >
< a href = "../practice/configuration-best-practice.html" >
4.3.3 配置最佳实践
< / a >
< / li >
< li class = "chapter " data-level = "1.4.3.4" data-path = "../practice/monitor.html" >
< a href = "../practice/monitor.html" >
4.3.4 集群及应用监控
< / a >
< / li >
< li class = "chapter " data-level = "1.4.3.5" data-path = "../practice/jenkins-ci-cd.html" >
< a href = "../practice/jenkins-ci-cd.html" >
4.3.5 使用Jenkins进行持续构建与发布
< / a >
< / li >
< li class = "chapter " data-level = "1.4.3.6" data-path = "../practice/data-persistence-problem.html" >
< a href = "../practice/data-persistence-problem.html" >
4.3.6 数据持久化问题
< / a >
2017-09-03 15:58:39 +08:00
< / li >
< li class = "chapter " data-level = "1.4.3.7" data-path = "../practice/manage-compute-resources-container.html" >
< a href = "../practice/manage-compute-resources-container.html" >
4.3.7 管理容器的计算资源
< / a >
2017-09-25 21:41:08 +08:00
< / li >
< li class = "chapter " data-level = "1.4.3.8" data-path = "../practice/using-prometheus-to-monitor-kuberentes-cluster.html" >
< a href = "../practice/using-prometheus-to-monitor-kuberentes-cluster.html" >
4.3.8 使用Prometheus监控kubernetes集群
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.4.4" data-path = "../practice/storage.html" >
< a href = "../practice/storage.html" >
4.4 存储管理
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.4.1" data-path = "../practice/glusterfs.html" >
< a href = "../practice/glusterfs.html" >
4.4.1 GlusterFS
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.4.1.1" data-path = "../practice/using-glusterfs-for-persistent-storage.html" >
< a href = "../practice/using-glusterfs-for-persistent-storage.html" >
4.4.1.1 使用GlusterFS做持久化存储
< / a >
< / li >
< li class = "chapter " data-level = "1.4.4.1.2" data-path = "../practice/storage-for-containers-using-glusterfs-with-openshift.html" >
< a href = "../practice/storage-for-containers-using-glusterfs-with-openshift.html" >
4.4.1.2 在OpenShift中使用GlusterFS做持久化存储
< / a >
2017-09-01 21:04:51 +08:00
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.4.4.2" data-path = "../practice/cephfs.html" >
< a href = "../practice/cephfs.html" >
4.4.2 CephFS
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.4.4.2.1" data-path = "../practice/using-ceph-for-persistent-storage.html" >
< a href = "../practice/using-ceph-for-persistent-storage.html" >
4.4.2.1 使用Ceph做持久化存储
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< / ul >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.5" data-path = "../usecases/" >
< a href = "../usecases/" >
5. 领域应用
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.5.1" data-path = "../usecases/microservices.html" >
< a href = "../usecases/microservices.html" >
5.1 微服务架构
< / a >
< ul class = "articles" >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.1.1" data-path = "../usecases/service-discovery-in-microservices.html" >
< a href = "../usecases/service-discovery-in-microservices.html" >
5.1.1 微服务中的服务发现
< / a >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.5.2" data-path = "../usecases/service-mesh.html" >
< a href = "../usecases/service-mesh.html" >
5.2 Service Mesh 服务网格
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.5.2.1" data-path = "../usecases/istio.html" >
2017-08-21 17:44:43 +08:00
< a href = "../usecases/istio.html" >
5.1.1 Istio
< / a >
< ul class = "articles" >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.2.1.1" data-path = "../usecases/istio-installation.html" >
2017-08-21 17:44:43 +08:00
< a href = "../usecases/istio-installation.html" >
5.1.1.1 安装istio
< / a >
< / li >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.2.1.2" data-path = "../usecases/configuring-request-routing.html" >
2017-08-21 17:44:43 +08:00
< a href = "../usecases/configuring-request-routing.html" >
5.1.1.2 配置请求的路由规则
< / a >
< / li >
< / ul >
< / li >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.2.2" data-path = "../usecases/linkerd.html" >
2017-08-21 17:44:43 +08:00
< a href = "../usecases/linkerd.html" >
5.1.2 Linkerd
< / a >
< ul class = "articles" >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.2.2.1" data-path = "../usecases/linkerd-user-guide.html" >
2017-08-21 17:44:43 +08:00
< a href = "../usecases/linkerd-user-guide.html" >
5.1.2.1 Linkerd 使用指南
< / a >
< / li >
< / ul >
< / li >
< / ul >
< / li >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.3" data-path = "../usecases/big-data.html" >
2017-08-21 17:44:43 +08:00
< a href = "../usecases/big-data.html" >
5.2 大数据
< / a >
< ul class = "articles" >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.3.1" data-path = "../usecases/spark-standalone-on-kubernetes.html" >
2017-08-21 17:44:43 +08:00
2017-08-30 14:20:52 +08:00
< a href = "../usecases/spark-standalone-on-kubernetes.html" >
2017-08-21 17:44:43 +08:00
2017-08-30 14:20:52 +08:00
5.2.1 Spark standalone on Kubernetes
2017-08-21 17:44:43 +08:00
< / a >
2017-08-31 14:23:44 +08:00
< / li >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.3.2" data-path = "../usecases/running-spark-with-kubernetes-native-scheduler.html" >
2017-08-31 14:23:44 +08:00
2017-09-14 15:57:50 +08:00
< a href = "../usecases/running-spark-with-kubernetes-native-scheduler.html" >
2017-08-31 14:23:44 +08:00
5.2.2 运行支持kubernetes原生调度的Spark程序
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
2017-08-30 16:52:33 +08:00
< / li >
2017-09-20 21:55:19 +08:00
< li class = "chapter " data-level = "1.5.4" data-path = "../usecases/serverless.html" >
2017-08-30 16:52:33 +08:00
< a href = "../usecases/serverless.html" >
5.3 Serverless架构
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.6" data-path = "../develop/" >
< a href = "../develop/" >
6. 开发指南
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.6.1" data-path = "../develop/developing-environment.html" >
< a href = "../develop/developing-environment.html" >
6.1 开发环境搭建
< / a >
< / li >
< li class = "chapter " data-level = "1.6.2" data-path = "../develop/testing.html" >
< a href = "../develop/testing.html" >
6.2 单元测试和集成测试
< / a >
< / li >
< li class = "chapter " data-level = "1.6.3" data-path = "../develop/client-go-sample.html" >
< a href = "../develop/client-go-sample.html" >
6.3 client-go示例
< / a >
< / li >
< li class = "chapter " data-level = "1.6.4" data-path = "../develop/contribute.html" >
< a href = "../develop/contribute.html" >
6.4 社区贡献
< / a >
< / li >
< / ul >
< / li >
< li class = "chapter " data-level = "1.7" data-path = "../appendix/" >
< a href = "../appendix/" >
7. 附录
< / a >
< ul class = "articles" >
< li class = "chapter " data-level = "1.7.1" data-path = "../appendix/docker-best-practice.html" >
< a href = "../appendix/docker-best-practice.html" >
7.1 Docker最佳实践
< / a >
< / li >
< li class = "chapter " data-level = "1.7.2" data-path = "../appendix/issues.html" >
< a href = "../appendix/issues.html" >
7.2 问题记录
< / a >
< / li >
< li class = "chapter " data-level = "1.7.3" data-path = "../appendix/tricks.html" >
< a href = "../appendix/tricks.html" >
7.3 使用技巧
< / a >
2017-09-21 15:00:54 +08:00
< / li >
< li class = "chapter " data-level = "1.7.4" data-path = "../appendix/debug-kubernetes-services.html" >
< a href = "../appendix/debug-kubernetes-services.html" >
7.4 kubernetes service中的故障排查
< / a >
2017-08-21 17:44:43 +08:00
< / li >
< / ul >
< / li >
< li class = "divider" > < / li >
< li >
< a href = "https://www.gitbook.com" target = "blank" class = "gitbook-link" >
2017-09-19 22:01:07 +08:00
本书使用 GitBook 发布
2017-08-21 17:44:43 +08:00
< / a >
< / li >
< / ul >
< / nav >
< / div >
< div class = "book-body" >
< div class = "body-inner" >
< div class = "book-header" role = "navigation" >
<!-- Title -->
< h1 >
< i class = "fa fa-circle-o-notch fa-spin" > < / i >
< a href = ".." > 2.2.4 Service< / a >
< / h1 >
< / div >
< div class = "page-wrapper" tabindex = "-1" role = "main" >
< div class = "page-inner" >
< div class = "search-plus" id = "book-search-results" >
< div class = "search-noresults" >
< section class = "normal markdown-section" >
< h1 id = "service" > Service< / h1 >
< p > Kubernetes < a href = "https://kubernetes.io/docs/user-guide/pods" target = "_blank" > < code > Pod< / code > < / a > 是 有 生 命 周 期 的 , 它 们 可 以 被 创 建 , 也 可 以 被 销 毁 , 然 而 一 旦 被 销 毁 生 命 就 永 远 结 束 。
通 过 < a href = "https://kubernetes.io/docs/user-guide/replication-controller" target = "_blank" > < code > ReplicationController< / code > < / a > 能 够 动 态 地 创 建 和 销 毁 < code > Pod< / code > ( 例 如 , 需 要 进 行 扩 缩 容 , 或 者 执 行 < a href = "https://kubernetes.io/docs/user-guide/kubectl/v1.7/#rolling-update" target = "_blank" > 滚 动 升 级 < / a > ) 。
每 个 < code > Pod< / code > 都 会 获 取 它 自 己 的 IP 地 址 , 即 使 这 些 IP 地 址 不 总 是 稳 定 可 依 赖 的 。
这 会 导 致 一 个 问 题 : 在 Kubernetes 集 群 中 , 如 果 一 组 < code > Pod< / code > ( 称 为 backend) 为 其 它 < code > Pod< / code > ( 称 为 frontend) 提 供 服 务 , 那 么 那 些 frontend 该 如 何 发 现 , 并 连 接 到 这 组 < code > Pod< / code > 中 的 哪 些 backend 呢 ? < / p >
< p > 关 于 < code > Service< / code > < / p >
< p > Kubernetes < code > Service< / code > 定 义 了 这 样 一 种 抽 象 : 一 个 < code > Pod< / code > 的 逻 辑 分 组 , 一 种 可 以 访 问 它 们 的 策 略 — — 通 常 称 为 微 服 务 。
这 一 组 < code > Pod< / code > 能 够 被 < code > Service< / code > 访 问 到 , 通 常 是 通 过 < a href = "https://kubernetes.io/docs/concepts/overview/working-with-objects/labels/#label-selectors" target = "_blank" > < code > Label Selector< / code > < / a > ( 查 看 下 面 了 解 , 为 什 么 可 能 需 要 没 有 selector 的 < code > Service< / code > ) 实 现 的 。 < / p >
< p > 举 个 例 子 , 考 虑 一 个 图 片 处 理 backend, 它 运 行 了 3个 副 本 。 这 些 副 本 是 可 互 换 的 — — frontend 不 需 要 关 心 它 们 调 用 了 哪 个 backend 副 本 。
然 而 组 成 这 一 组 backend 程 序 的 < code > Pod< / code > 实 际 上 可 能 会 发 生 变 化 , frontend 客 户 端 不 应 该 也 没 必 要 知 道 , 而 且 也 不 需 要 跟 踪 这 一 组 backend 的 状 态 。
< code > Service< / code > 定 义 的 抽 象 能 够 解 耦 这 种 关 联 。 < / p >
< p > 对 Kubernetes 集 群 中 的 应 用 , Kubernetes 提 供 了 简 单 的 < code > Endpoints< / code > API, 只 要 < code > Service< / code > 中 的 一 组 < code > Pod< / code > 发 生 变 更 , 应 用 程 序 就 会 被 更 新 。
对 非 Kubernetes 集 群 中 的 应 用 , Kubernetes 提 供 了 基 于 VIP 的 网 桥 的 方 式 访 问 < code > Service< / code > , 再 由 < code > Service< / code > 重 定 向 到 backend < code > Pod< / code > 。 < / p >
< h2 id = "定义-service" > 定 义 Service< / h2 >
< p > 一 个 < code > Service< / code > 在 Kubernetes 中 是 一 个 REST 对 象 , 和 < code > Pod< / code > 类 似 。
像 所 有 的 REST 对 象 一 样 , < code > Service< / code > 定 义 可 以 基 于 POST 方 式 , 请 求 apiserver 创 建 新 的 实 例 。
例 如 , 假 定 有 一 组 < code > Pod< / code > , 它 们 对 外 暴 露 了 9376 端 口 , 同 时 还 被 打 上 < code > " app=MyApp" < / code > 标 签 。 < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Service
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > spec:< / span >
< span class = "hljs-attr" > selector:< / span >
< span class = "hljs-attr" > app:< / span > MyApp
< span class = "hljs-attr" > ports:< / span >
< span class = "hljs-attr" > - protocol:< / span > TCP
< span class = "hljs-attr" > port:< / span > < span class = "hljs-number" > 80< / span >
< span class = "hljs-attr" > targetPort:< / span > < span class = "hljs-number" > 9376< / span >
< / code > < / pre >
< p > 上 述 配 置 将 创 建 一 个 名 称 为 “ my-service” 的 < code > Service< / code > 对 象 , 它 会 将 请 求 代 理 到 使 用 TCP 端 口 9376, 并 且 具 有 标 签 < code > " app=MyApp" < / code > 的 < code > Pod< / code > 上 。
这 个 < code > Service< / code > 将 被 指 派 一 个 IP 地 址 ( 通 常 称 为 “ Cluster IP” ) , 它 会 被 服 务 的 代 理 使 用 ( 见 下 面 ) 。
该 < code > Service< / code > 的 selector 将 会 持 续 评 估 , 处 理 结 果 将 被 POST 到 一 个 名 称 为 “ my-service” 的 < code > Endpoints< / code > 对 象 上 。 < / p >
< p > 需 要 注 意 的 是 , < code > Service< / code > 能 够 将 一 个 接 收 端 口 映 射 到 任 意 的 < code > targetPort< / code > 。
默 认 情 况 下 , < code > targetPort< / code > 将 被 设 置 为 与 < code > port< / code > 字 段 相 同 的 值 。
可 能 更 有 趣 的 是 , < code > targetPort< / code > 可 以 是 一 个 字 符 串 , 引 用 了 backend < code > Pod< / code > 的 一 个 端 口 的 名 称 。
但 是 , 实 际 指 派 给 该 端 口 名 称 的 端 口 号 , 在 每 个 backend < code > Pod< / code > 中 可 能 并 不 相 同 。
对 于 部 署 和 设 计 < code > Service< / code > , 这 种 方 式 会 提 供 更 大 的 灵 活 性 。
例 如 , 可 以 在 backend 软 件 下 一 个 版 本 中 , 修 改 Pod 暴 露 的 端 口 , 并 不 会 中 断 客 户 端 的 调 用 。 < / p >
< p > Kubernetes < code > Service< / code > 能 够 支 持 < code > TCP< / code > 和 < code > UDP< / code > 协 议 , 默 认 < code > TCP< / code > 协 议 。 < / p >
< h3 id = "没有-selector-的-service" > 没 有 selector 的 Service< / h3 >
< p > Servcie 抽 象 了 该 如 何 访 问 Kubernetes < code > Pod< / code > , 但 也 能 够 抽 象 其 它 类 型 的 backend, 例 如 : < / p >
< ul >
< li > 希 望 在 生 产 环 境 中 使 用 外 部 的 数 据 库 集 群 , 但 测 试 环 境 使 用 自 己 的 数 据 库 。 < / li >
< li > 希 望 服 务 指 向 另 一 个 < a href = "https://kubernetes.io/docs/user-guide/namespaces" target = "_blank" > < code > Namespace< / code > < / a > 中 或 其 它 集 群 中 的 服 务 。 < / li >
< li > 正 在 将 工 作 负 载 转 移 到 Kubernetes 集 群 , 和 运 行 在 Kubernetes 集 群 之 外 的 backend。 < / li >
< / ul >
< p > 在 任 何 这 些 场 景 中 , 都 能 够 定 义 没 有 selector 的 < code > Service< / code > : < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Service
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > spec:< / span >
< span class = "hljs-attr" > ports:< / span >
< span class = "hljs-attr" > - protocol:< / span > TCP
< span class = "hljs-attr" > port:< / span > < span class = "hljs-number" > 80< / span >
< span class = "hljs-attr" > targetPort:< / span > < span class = "hljs-number" > 9376< / span >
< / code > < / pre >
< p > 由 于 这 个 < code > Service< / code > 没 有 selector, 就 不 会 创 建 相 关 的 < code > Endpoints< / code > 对 象 。 可 以 手 动 将 < code > Service< / code > 映 射 到 指 定 的 < code > Endpoints< / code > : < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Endpoints
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > subsets:< / span >
< span class = "hljs-attr" > - addresses:< / span >
< span class = "hljs-attr" > - ip:< / span > < span class = "hljs-number" > 1.2< / span > < span class = "hljs-number" > .3< / span > < span class = "hljs-number" > .4< / span >
< span class = "hljs-attr" > ports:< / span >
< span class = "hljs-attr" > - port:< / span > < span class = "hljs-number" > 9376< / span >
< / code > < / pre >
< p > 注 意 : Endpoint IP 地 址 不 能 是 loopback( 127.0.0.0/8) 、 link-local( 169.254.0.0/16) 、 或 者 link-local 多 播 ( 224.0.0.0/24) 。 < / p >
< p > 访 问 没 有 selector 的 < code > Service< / code > , 与 有 selector 的 < code > Service< / code > 的 原 理 相 同 。 请 求 将 被 路 由 到 用 户 定 义 的 Endpoint( 该 示 例 中 为 < code > 1.2.3.4:9376< / code > ) 。 < / p >
< p > ExternalName < code > Service< / code > 是 < code > Service< / code > 的 特 例 , 它 没 有 selector, 也 没 有 定 义 任 何 的 端 口 和 Endpoint。
相 反 地 , 对 于 运 行 在 集 群 外 部 的 服 务 , 它 通 过 返 回 该 外 部 服 务 的 别 名 这 种 方 式 来 提 供 服 务 。 < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Service
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > namespace:< / span > prod
< span class = "hljs-attr" > spec:< / span >
< span class = "hljs-attr" > type:< / span > ExternalName
< span class = "hljs-attr" > externalName:< / span > my.database.example.com
< / code > < / pre >
< p > 当 查 询 主 机 < code > my-service.prod.svc.CLUSTER< / code > 时 , 集 群 的 DNS 服 务 将 返 回 一 个 值 为 < code > my.database.example.com< / code > 的 < code > CNAME< / code > 记 录 。
访 问 这 个 服 务 的 工 作 方 式 与 其 它 的 相 同 , 唯 一 不 同 的 是 重 定 向 发 生 在 DNS 层 , 而 且 不 会 进 行 代 理 或 转 发 。
如 果 后 续 决 定 要 将 数 据 库 迁 移 到 Kubernetes 集 群 中 , 可 以 启 动 对 应 的 Pod, 增 加 合 适 的 Selector 或 Endpoint, 修 改 < code > Service< / code > 的 < code > type< / code > 。 < / p >
< h2 id = "vip-和-service-代理" > VIP 和 Service 代 理 < / h2 >
< p > 在 Kubernetes 集 群 中 , 每 个 Node 运 行 一 个 < code > kube-proxy< / code > 进 程 。 < code > kube-proxy< / code > 负 责 为 < code > Service< / code > 实 现 了 一 种 VIP( 虚 拟 IP) 的 形 式 , 而 不 是 < code > ExternalName< / code > 的 形 式 。
在 Kubernetes v1.0 版 本 , 代 理 完 全 在 userspace。 在 Kubernetes v1.1 版 本 , 新 增 了 iptables 代 理 , 但 并 不 是 默 认 的 运 行 模 式 。
从 Kubernetes v1.2 起 , 默 认 就 是 iptables 代 理 。 < / p >
< p > 在 Kubernetes v1.0 版 本 , < code > Service< / code > 是 “ 4层 ” ( TCP/UDP over IP) 概 念 。
在 Kubernetes v1.1 版 本 , 新 增 了 < code > Ingress< / code > API( beta 版 ) , 用 来 表 示 “ 7层 ” ( HTTP) 服 务 。 < / p >
< h3 id = "userspace-代理模式" > userspace 代 理 模 式 < / h3 >
< p > 这 种 模 式 , kube-proxy 会 监 视 Kubernetes master 对 < code > Service< / code > 对 象 和 < code > Endpoints< / code > 对 象 的 添 加 和 移 除 。
对 每 个 < code > Service< / code > , 它 会 在 本 地 Node 上 打 开 一 个 端 口 ( 随 机 选 择 ) 。
任 何 连 接 到 “ 代 理 端 口 ” 的 请 求 , 都 会 被 代 理 到 < code > Service< / code > 的 backend < code > Pods< / code > 中 的 某 个 上 面 ( 如 < code > Endpoints< / code > 所 报 告 的 一 样 ) 。
使 用 哪 个 backend < code > Pod< / code > , 是 基 于 < code > Service< / code > 的 < code > SessionAffinity< / code > 来 确 定 的 。
最 后 , 它 安 装 iptables 规 则 , 捕 获 到 达 该 < code > Service< / code > 的 < code > clusterIP< / code > ( 是 虚 拟 IP) 和 < code > Port< / code > 的 请 求 , 并 重 定 向 到 代 理 端 口 , 代 理 端 口 再 代 理 请 求 到 backend < code > Pod< / code > 。 < / p >
< p > 网 络 返 回 的 结 果 是 , 任 何 到 达 < code > Service< / code > 的 IP:Port 的 请 求 , 都 会 被 代 理 到 一 个 合 适 的 backend, 不 需 要 客 户 端 知 道 关 于 Kubernetes、 < code > Service< / code > 、 或 < code > Pod< / code > 的 任 何 信 息 。 < / p >
< p > 默 认 的 策 略 是 , 通 过 round-robin 算 法 来 选 择 backend < code > Pod< / code > 。
实 现 基 于 客 户 端 IP 的 会 话 亲 和 性 , 可 以 通 过 设 置 < code > service.spec.sessionAffinity< / code > 的 值 为 < code > " ClientIP" < / code > ( 默 认 值 为 < code > " None" < / code > ) 。 < / p >
2017-10-09 15:28:05 +08:00
< figure id = "fig1.2.2.4.1" > < img src = "https://d33wubrfki0l68.cloudfront.net/b8e1022c2dd815d8dd36b1bc4f0cc3ad870a924f/1dd12/images/docs/services-userspace-overview.svg" alt = "userspace代理模式下Service概览图" > < figcaption > 图 片 - userspace代 理 模 式 下 Service概 览 图 < / figcaption > < / figure >
2017-08-21 17:44:43 +08:00
< h3 id = "iptables-代理模式" > iptables 代 理 模 式 < / h3 >
< p > 这 种 模 式 , kube-proxy 会 监 视 Kubernetes master 对 < code > Service< / code > 对 象 和 < code > Endpoints< / code > 对 象 的 添 加 和 移 除 。
对 每 个 < code > Service< / code > , 它 会 安 装 iptables 规 则 , 从 而 捕 获 到 达 该 < code > Service< / code > 的 < code > clusterIP< / code > ( 虚 拟 IP) 和 端 口 的 请 求 , 进 而 将 请 求 重 定 向 到 < code > Service< / code > 的 一 组 backend 中 的 某 个 上 面 。
对 于 每 个 < code > Endpoints< / code > 对 象 , 它 也 会 安 装 iptables 规 则 , 这 个 规 则 会 选 择 一 个 backend < code > Pod< / code > 。 < / p >
< p > 默 认 的 策 略 是 , 随 机 选 择 一 个 backend。
实 现 基 于 客 户 端 IP 的 会 话 亲 和 性 , 可 以 将 < code > service.spec.sessionAffinity< / code > 的 值 设 置 为 < code > " ClientIP" < / code > ( 默 认 值 为 < code > " None" < / code > ) 。 < / p >
< p > 和 userspace 代 理 类 似 , 网 络 返 回 的 结 果 是 , 任 何 到 达 < code > Service< / code > 的 IP:Port 的 请 求 , 都 会 被 代 理 到 一 个 合 适 的 backend, 不 需 要 客 户 端 知 道 关 于 Kubernetes、 < code > Service< / code > 、 或 < code > Pod< / code > 的 任 何 信 息 。
这 应 该 比 userspace 代 理 更 快 、 更 可 靠 。 然 而 , 不 像 userspace 代 理 , 如 果 初 始 选 择 的 < code > Pod< / code > 没 有 响 应 , iptables 代 理 能 够 自 动 地 重 试 另 一 个 < code > Pod< / code > , 所 以 它 需 要 依 赖 < a href = "https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-probes/#defining-readiness-probes" target = "_blank" > readiness probes< / a > 。 < / p >
2017-10-09 15:28:05 +08:00
< figure id = "fig1.2.2.4.2" > < img src = "https://d33wubrfki0l68.cloudfront.net/837afa5715eb31fb9ca6516ec6863e810f437264/42951/images/docs/services-iptables-overview.svg" alt = "iptables代理模式下Service概览图" > < figcaption > 图 片 - iptables代 理 模 式 下 Service概 览 图 < / figcaption > < / figure >
2017-08-21 17:44:43 +08:00
< h2 id = "多端口-service" > 多 端 口 Service< / h2 >
< p > 很 多 < code > Service< / code > 需 要 暴 露 多 个 端 口 。 对 于 这 种 情 况 , Kubernetes 支 持 在 < code > Service< / code > 对 象 中 定 义 多 个 端 口 。
当 使 用 多 个 端 口 时 , 必 须 给 出 所 有 的 端 口 的 名 称 , 这 样 Endpoint 就 不 会 产 生 歧 义 , 例 如 : < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Service
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > spec:< / span >
< span class = "hljs-attr" > selector:< / span >
< span class = "hljs-attr" > app:< / span > MyApp
< span class = "hljs-attr" > ports:< / span >
< span class = "hljs-attr" > - name:< / span > http
< span class = "hljs-attr" > protocol:< / span > TCP
< span class = "hljs-attr" > port:< / span > < span class = "hljs-number" > 80< / span >
< span class = "hljs-attr" > targetPort:< / span > < span class = "hljs-number" > 9376< / span >
< span class = "hljs-attr" > - name:< / span > https
< span class = "hljs-attr" > protocol:< / span > TCP
< span class = "hljs-attr" > port:< / span > < span class = "hljs-number" > 443< / span >
< span class = "hljs-attr" > targetPort:< / span > < span class = "hljs-number" > 9377< / span >
< / code > < / pre >
< h2 id = "选择自己的-ip-地址" > 选 择 自 己 的 IP 地 址 < / h2 >
< p > 在 < code > Service< / code > 创 建 的 请 求 中 , 可 以 通 过 设 置 < code > spec.clusterIP< / code > 字 段 来 指 定 自 己 的 集 群 IP 地 址 。
比 如 , 希 望 替 换 一 个 已 经 已 存 在 的 DNS 条 目 , 或 者 遗 留 系 统 已 经 配 置 了 一 个 固 定 的 IP 且 很 难 重 新 配 置 。
用 户 选 择 的 IP 地 址 必 须 合 法 , 并 且 这 个 IP 地 址 在 < code > service-cluster-ip-range< / code > CIDR 范 围 内 , 这 对 API Server 来 说 是 通 过 一 个 标 识 来 指 定 的 。
如 果 IP 地 址 不 合 法 , API Server 会 返 回 HTTP 状 态 码 422, 表 示 值 不 合 法 。 < / p >
< h3 id = "为何不使用-round-robin-dns?" > 为 何 不 使 用 round-robin DNS? < / h3 >
< p > 一 个 不 时 出 现 的 问 题 是 , 为 什 么 我 们 都 使 用 VIP 的 方 式 , 而 不 使 用 标 准 的 round-robin DNS, 有 如 下 几 个 原 因 : < / p >
< ul >
< li > 长 久 以 来 , DNS 库 都 没 能 认 真 对 待 DNS TTL、 缓 存 域 名 查 询 结 果 < / li >
< li > 很 多 应 用 只 查 询 一 次 DNS 并 缓 存 了 结 果 < ul >
< li > 就 算 应 用 和 库 能 够 正 确 查 询 解 析 , 每 个 客 户 端 反 复 重 解 析 造 成 的 负 载 也 是 非 常 难 以 管 理 的 < / li >
< / ul >
< / li >
< / ul >
< p > 我 们 尽 力 阻 止 用 户 做 那 些 对 他 们 没 有 好 处 的 事 情 , 如 果 很 多 人 都 来 问 这 个 问 题 , 我 们 可 能 会 选 择 实 现 它 。 < / p >
< h2 id = "服务发现" > 服 务 发 现 < / h2 >
< p > Kubernetes 支 持 2种 基 本 的 服 务 发 现 模 式 — — 环 境 变 量 和 DNS。 < / p >
< h3 id = "环境变量" > 环 境 变 量 < / h3 >
< p > 当 < code > Pod< / code > 运 行 在 < code > Node< / code > 上 , kubelet 会 为 每 个 活 跃 的 < code > Service< / code > 添 加 一 组 环 境 变 量 。
它 同 时 支 持 < a href = "https://docs.docker.com/userguide/dockerlinks/" target = "_blank" > Docker links 兼 容 < / a > 变 量 ( 查 看 < a href = "http://releases.k8s.io//pkg/kubelet/envvars/envvars.go#L49" target = "_blank" > makeLinkVariables< / a > ) 、 简 单 的 < code > {SVCNAME}_SERVICE_HOST< / code > 和 < code > {SVCNAME}_SERVICE_PORT< / code > 变 量 , 这 里 < code > Service< / code > 的 名 称 需 大 写 , 横 线 被 转 换 成 下 划 线 。 < / p >
< p > 举 个 例 子 , 一 个 名 称 为 < code > " redis-master" < / code > 的 Service 暴 露 了 TCP 端 口 6379, 同 时 给 它 分 配 了 Cluster IP 地 址 10.0.0.11, 这 个 Service 生 成 了 如 下 环 境 变 量 : < / p >
< pre > < code class = "lang-shell" > REDIS_MASTER_SERVICE_HOST=10.0.0.11
REDIS_MASTER_SERVICE_PORT=6379
REDIS_MASTER_PORT=tcp://10.0.0.11:6379
REDIS_MASTER_PORT_6379_TCP=tcp://10.0.0.11:6379
REDIS_MASTER_PORT_6379_TCP_PROTO=tcp
REDIS_MASTER_PORT_6379_TCP_PORT=6379
REDIS_MASTER_PORT_6379_TCP_ADDR=10.0.0.11
< / code > < / pre >
< p > < em > 这 意 味 着 需 要 有 顺 序 的 要 求 < / em > — — < code > Pod< / code > 想 要 访 问 的 任 何 < code > Service< / code > 必 须 在 < code > Pod< / code > 自 己 之 前 被 创 建 , 否 则 这 些 环 境 变 量 就 不 会 被 赋 值 。 DNS 并 没 有 这 个 限 制 。 < / p >
< h3 id = "dns" > DNS< / h3 >
< p > 一 个 可 选 ( 尽 管 强 烈 推 荐 ) < a href = "http://releases.k8s.io/master/cluster/addons/README.md" target = "_blank" > 集 群 插 件 < / a > 是 DNS 服 务 器 。
DNS 服 务 器 监 视 着 创 建 新 < code > Service< / code > 的 Kubernetes API, 从 而 为 每 一 个 < code > Service< / code > 创 建 一 组 DNS 记 录 。
如 果 整 个 集 群 的 DNS 一 直 被 启 用 , 那 么 所 有 的 < code > Pod< / code > 应 该 能 够 自 动 对 < code > Service< / code > 进 行 名 称 解 析 。 < / p >
< p > 例 如 , 有 一 个 名 称 为 < code > " my-service" < / code > 的 < code > Service< / code > , 它 在 Kubernetes 集 群 中 名 为 < code > " my-ns" < / code > 的 < code > Namespace< / code > 中 , 为 < code > " my-service.my-ns" < / code > 创 建 了 一 条 DNS 记 录 。
在 名 称 为 < code > " my-ns" < / code > 的 < code > Namespace< / code > 中 的 < code > Pod< / code > 应 该 能 够 简 单 地 通 过 名 称 查 询 找 到 < code > " my-service" < / code > 。
在 另 一 个 < code > Namespace< / code > 中 的 < code > Pod< / code > 必 须 限 定 名 称 为 < code > " my-service.my-ns" < / code > 。
这 些 名 称 查 询 的 结 果 是 Cluster IP。 < / p >
< p > Kubernetes 也 支 持 对 端 口 名 称 的 DNS SRV( Service) 记 录 。
如 果 名 称 为 < code > " my-service.my-ns" < / code > 的 < code > Service< / code > 有 一 个 名 为 < code > " http" < / code > 的 < code > TCP< / code > 端 口 , 可 以 对 < code > " _http._tcp.my-service.my-ns" < / code > 执 行 DNS SRV 查 询 , 得 到 < code > " http" < / code > 的 端 口 号 。 < / p >
< p > Kubernetes DNS 服 务 器 是 唯 一 的 一 种 能 够 访 问 < code > ExternalName< / code > 类 型 的 Service 的 方 式 。
更 多 信 息 可 以 查 看 < a href = "https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/" target = "_blank" > DNS Pod 和 Service< / a > 。 < / p >
< h2 id = "headless-service" > Headless Service< / h2 >
< p > 有 时 不 需 要 或 不 想 要 负 载 均 衡 , 以 及 单 独 的 Service IP。
遇 到 这 种 情 况 , 可 以 通 过 指 定 Cluster IP( < code > spec.clusterIP< / code > ) 的 值 为 < code > " None" < / code > 来 创 建 < code > Headless< / code > Service。 < / p >
< p > 这 个 选 项 允 许 开 发 人 员 自 由 寻 找 他 们 自 己 的 方 式 , 从 而 降 低 与 Kubernetes 系 统 的 耦 合 性 。
应 用 仍 然 可 以 使 用 一 种 自 注 册 的 模 式 和 适 配 器 , 对 其 它 需 要 发 现 机 制 的 系 统 能 够 很 容 易 地 基 于 这 个 API 来 构 建 。 < / p >
< p > 对 这 类 < code > Service< / code > 并 不 会 分 配 Cluster IP, kube-proxy 不 会 处 理 它 们 , 而 且 平 台 也 不 会 为 它 们 进 行 负 载 均 衡 和 路 由 。
DNS 如 何 实 现 自 动 配 置 , 依 赖 于 < code > Service< / code > 是 否 定 义 了 selector。 < / p >
< h3 id = "配置-selector" > 配 置 Selector< / h3 >
< p > 对 定 义 了 selector 的 Headless Service, Endpoint 控 制 器 在 API 中 创 建 了 < code > Endpoints< / code > 记 录 , 并 且 修 改 DNS 配 置 返 回 A 记 录 ( 地 址 ) , 通 过 这 个 地 址 直 接 到 达 < code > Service< / code > 的 后 端 < code > Pod< / code > 上 。 < / p >
< h3 id = "不配置-selector" > 不 配 置 Selector< / h3 >
< p > 对 没 有 定 义 selector 的 Headless Service, Endpoint 控 制 器 不 会 创 建 < code > Endpoints< / code > 记 录 。
然 而 DNS 系 统 会 查 找 和 配 置 , 无 论 是 : < / p >
< ul >
< li > < code > ExternalName< / code > 类 型 Service 的 CNAME 记 录 < ul >
< li > 记 录 : 与 Service 共 享 一 个 名 称 的 任 何 < code > Endpoints< / code > , 以 及 所 有 其 它 类 型 < / li >
< / ul >
< / li >
< / ul >
< h2 id = "发布服务-——-服务类型" > 发 布 服 务 — — 服 务 类 型 < / h2 >
< p > 对 一 些 应 用 ( 如 Frontend) 的 某 些 部 分 , 可 能 希 望 通 过 外 部 ( Kubernetes 集 群 外 部 ) IP 地 址 暴 露 Service。 < / p >
< p > Kubernetes < code > ServiceTypes< / code > 允 许 指 定 一 个 需 要 的 类 型 的 Service, 默 认 是 < code > ClusterIP< / code > 类 型 。 < / p >
< p > < code > Type< / code > 的 取 值 以 及 行 为 如 下 : < / p >
< ul >
< li > < code > ClusterIP< / code > : 通 过 集 群 的 内 部 IP 暴 露 服 务 , 选 择 该 值 , 服 务 只 能 够 在 集 群 内 部 可 以 访 问 , 这 也 是 默 认 的 < code > ServiceType< / code > 。 < / li >
< li > < code > NodePort< / code > : 通 过 每 个 Node 上 的 IP 和 静 态 端 口 ( < code > NodePort< / code > ) 暴 露 服 务 。 < code > NodePort< / code > 服 务 会 路 由 到 < code > ClusterIP< / code > 服 务 , 这 个 < code > ClusterIP< / code > 服 务 会 自 动 创 建 。 通 过 请 求 < code > < NodeIP> :< NodePort> < / code > , 可 以 从 集 群 的 外 部 访 问 一 个 < code > NodePort< / code > 服 务 。 < / li >
< li > < code > LoadBalancer< / code > : 使 用 云 提 供 商 的 负 载 均 衡 器 , 可 以 向 外 部 暴 露 服 务 。 外 部 的 负 载 均 衡 器 可 以 路 由 到 < code > NodePort< / code > 服 务 和 < code > ClusterIP< / code > 服 务 。 < / li >
< li > < code > ExternalName< / code > : 通 过 返 回 < code > CNAME< / code > 和 它 的 值 , 可 以 将 服 务 映 射 到 < code > externalName< / code > 字 段 的 内 容 ( 例 如 , < code > foo.bar.example.com< / code > ) 。
没 有 任 何 类 型 代 理 被 创 建 , 这 只 有 Kubernetes 1.7 或 更 高 版 本 的 < code > kube-dns< / code > 才 支 持 。 < / li >
< / ul >
< h3 id = "nodeport-类型" > NodePort 类 型 < / h3 >
< p > 如 果 设 置 < code > type< / code > 的 值 为 < code > " NodePort" < / code > , Kubernetes master 将 从 给 定 的 配 置 范 围 内 ( 默 认 : 30000-32767) 分 配 端 口 , 每 个 Node 将 从 该 端 口 ( 每 个 Node 上 的 同 一 端 口 ) 代 理 到 < code > Service< / code > 。 该 端 口 将 通 过 < code > Service< / code > 的 < code > spec.ports[*].nodePort< / code > 字 段 被 指 定 。 < / p >
< p > 如 果 需 要 指 定 的 端 口 号 , 可 以 配 置 < code > nodePort< / code > 的 值 , 系 统 将 分 配 这 个 端 口 , 否 则 调 用 API 将 会 失 败 ( 比 如 , 需 要 关 心 端 口 冲 突 的 可 能 性 ) 。 < / p >
< p > 这 可 以 让 开 发 人 员 自 由 地 安 装 他 们 自 己 的 负 载 均 衡 器 , 并 配 置 Kubernetes 不 能 完 全 支 持 的 环 境 参 数 , 或 者 直 接 暴 露 一 个 或 多 个 Node 的 IP 地 址 。 < / p >
< p > 需 要 注 意 的 是 , Service 将 能 够 通 过 < code > < NodeIP> :spec.ports[*].nodePort< / code > 和 < code > spec.clusterIp:spec.ports[*].port< / code > 而 对 外 可 见 。 < / p >
< h3 id = "loadbalancer-类型" > LoadBalancer 类 型 < / h3 >
< p > 使 用 支 持 外 部 负 载 均 衡 器 的 云 提 供 商 的 服 务 , 设 置 < code > type< / code > 的 值 为 < code > " LoadBalancer" < / code > , 将 为 < code > Service< / code > 提 供 负 载 均 衡 器 。
负 载 均 衡 器 是 异 步 创 建 的 , 关 于 被 提 供 的 负 载 均 衡 器 的 信 息 将 会 通 过 < code > Service< / code > 的 < code > status.loadBalancer< / code > 字 段 被 发 布 出 去 。 < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Service
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > spec:< / span >
< span class = "hljs-attr" > selector:< / span >
< span class = "hljs-attr" > app:< / span > MyApp
< span class = "hljs-attr" > ports:< / span >
< span class = "hljs-attr" > - protocol:< / span > TCP
< span class = "hljs-attr" > port:< / span > < span class = "hljs-number" > 80< / span >
< span class = "hljs-attr" > targetPort:< / span > < span class = "hljs-number" > 9376< / span >
< span class = "hljs-attr" > nodePort:< / span > < span class = "hljs-number" > 30061< / span >
< span class = "hljs-attr" > clusterIP:< / span > < span class = "hljs-number" > 10.0< / span > < span class = "hljs-number" > .171< / span > < span class = "hljs-number" > .239< / span >
< span class = "hljs-attr" > loadBalancerIP:< / span > < span class = "hljs-number" > 78.11< / span > < span class = "hljs-number" > .24< / span > < span class = "hljs-number" > .19< / span >
< span class = "hljs-attr" > type:< / span > LoadBalancer
< span class = "hljs-attr" > status:< / span >
< span class = "hljs-attr" > loadBalancer:< / span >
< span class = "hljs-attr" > ingress:< / span >
< span class = "hljs-attr" > - ip:< / span > < span class = "hljs-number" > 146.148< / span > < span class = "hljs-number" > .47< / span > < span class = "hljs-number" > .155< / span >
< / code > < / pre >
< p > 来 自 外 部 负 载 均 衡 器 的 流 量 将 直 接 打 到 backend < code > Pod< / code > 上 , 不 过 实 际 它 们 是 如 何 工 作 的 , 这 要 依 赖 于 云 提 供 商 。
在 这 些 情 况 下 , 将 根 据 用 户 设 置 的 < code > loadBalancerIP< / code > 来 创 建 负 载 均 衡 器 。
某 些 云 提 供 商 允 许 设 置 < code > loadBalancerIP< / code > 。 如 果 没 有 设 置 < code > loadBalancerIP< / code > , 将 会 给 负 载 均 衡 器 指 派 一 个 临 时 IP。
如 果 设 置 了 < code > loadBalancerIP< / code > , 但 云 提 供 商 并 不 支 持 这 种 特 性 , 那 么 设 置 的 < code > loadBalancerIP< / code > 值 将 会 被 忽 略 掉 。 < / p >
< h3 id = "aws-内部负载均衡器" > AWS 内 部 负 载 均 衡 器 < / h3 >
< p > 在 混 合 云 环 境 中 , 有 时 从 虚 拟 私 有 云 ( VPC) 环 境 中 的 服 务 路 由 流 量 是 非 常 有 必 要 的 。
可 以 通 过 在 < code > Service< / code > 中 增 加 < code > annotation< / code > 来 实 现 , 如 下 所 示 : < / p >
< pre > < code class = "lang-yaml" > [...]
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > annotations:< / span >
service.beta.kubernetes.io/aws-load-balancer-internal: < span class = "hljs-number" > 0.0< / span > < span class = "hljs-number" > .0< / span > < span class = "hljs-number" > .0< / span > /< span class = "hljs-number" > 0< / span >
[...]
< / code > < / pre >
< p > 在 水 平 分 割 的 DNS 环 境 中 , 需 要 两 个 < code > Service< / code > 来 将 外 部 和 内 部 的 流 量 路 由 到 Endpoint 上 。 < / p >
< h3 id = "aws-ssl-支持" > AWS SSL 支 持 < / h3 >
< p > 对 运 行 在 AWS 上 部 分 支 持 SSL 的 集 群 , 从 1.3 版 本 开 始 , 可 以 为 < code > LoadBalancer< / code > 类 型 的 < code > Service< / code > 增 加 两 个 annotation: < / p >
< pre > < code > metadata:
name: my-service
annotations:
service.beta.kubernetes.io/aws-load-balancer-ssl-cert: arn:aws:acm:us-east-1:123456789012:certificate/12345678-1234-1234-1234-123456789012
< / code > < / pre > < p > 第 一 个 annotation 指 定 了 使 用 的 证 书 。 它 可 以 是 第 三 方 发 行 商 发 行 的 证 书 , 这 个 证 书 或 者 被 上 传 到 IAM, 或 者 由 AWS 的 证 书 管 理 器 创 建 。 < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > annotations:< / span >
service.beta.kubernetes.io/aws-load-balancer-backend-protocol: (https|http|ssl|tcp)
< / code > < / pre >
< p > 第 二 个 annotation 指 定 了 < code > Pod< / code > 使 用 的 协 议 。
对 于 HTTPS 和 SSL, ELB 将 期 望 该 < code > Pod< / code > 基 于 加 密 的 连 接 来 认 证 自 身 。 < / p >
< p > HTTP 和 HTTPS 将 选 择 7层 代 理 : ELB 将 中 断 与 用 户 的 连 接 , 当 转 发 请 求 时 , 会 解 析 Header 信 息 并 添 加 上 用 户 的 IP 地 址 ( < code > Pod< / code > 将 只 能 在 连 接 的 另 一 端 看 到 该 IP 地 址 ) 。 < / p >
< p > TCP 和 SSL 将 选 择 4层 代 理 : ELB 将 转 发 流 量 , 并 不 修 改 Header 信 息 。 < / p >
< h3 id = "外部-ip" > 外 部 IP< / h3 >
< p > 如 果 外 部 的 IP 路 由 到 集 群 中 一 个 或 多 个 Node 上 , Kubernetes < code > Service< / code > 会 被 暴 露 给 这 些 < code > externalIPs< / code > 。
通 过 外 部 IP( 作 为 目 的 IP 地 址 ) 进 入 到 集 群 , 打 到 < code > Service< / code > 的 端 口 上 的 流 量 , 将 会 被 路 由 到 < code > Service< / code > 的 Endpoint 上 。
< code > externalIPs< / code > 不 会 被 Kubernetes 管 理 , 它 属 于 集 群 管 理 员 的 职 责 范 畴 。 < / p >
< p > 根 据 < code > Service< / code > 的 规 定 , < code > externalIPs< / code > 可 以 同 任 意 的 < code > ServiceType< / code > 来 一 起 指 定 。
在 下 面 的 例 子 中 , < code > my-service< / code > 可 以 在 80.11.12.10:80( 外 部 IP:端 口 ) 上 被 客 户 端 访 问 。 < / p >
< pre > < code class = "lang-yaml" > < span class = "hljs-attr" > kind:< / span > Service
< span class = "hljs-attr" > apiVersion:< / span > v1
< span class = "hljs-attr" > metadata:< / span >
< span class = "hljs-attr" > name:< / span > my-service
< span class = "hljs-attr" > spec:< / span >
< span class = "hljs-attr" > selector:< / span >
< span class = "hljs-attr" > app:< / span > MyApp
< span class = "hljs-attr" > ports:< / span >
< span class = "hljs-attr" > - name:< / span > http
< span class = "hljs-attr" > protocol:< / span > TCP
< span class = "hljs-attr" > port:< / span > < span class = "hljs-number" > 80< / span >
< span class = "hljs-attr" > targetPort:< / span > < span class = "hljs-number" > 9376< / span >
< span class = "hljs-attr" > externalIPs:< / span >
< span class = "hljs-bullet" > -< / span > < span class = "hljs-number" > 80.11< / span > < span class = "hljs-number" > .12< / span > < span class = "hljs-number" > .10< / span >
< / code > < / pre >
< h2 id = "不足之处" > 不 足 之 处 < / h2 >
< p > 为 VIP 使 用 userspace 代 理 , 将 只 适 合 小 型 到 中 型 规 模 的 集 群 , 不 能 够 扩 展 到 上 千 < code > Service< / code > 的 大 型 集 群 。
查 看 < a href = "http://issue.k8s.io/1107" target = "_blank" > 最 初 设 计 方 案 < / a > 获 取 更 多 细 节 。 < / p >
< p > 使 用 userspace 代 理 , 隐 藏 了 访 问 < code > Service< / code > 的 数 据 包 的 源 IP 地 址 。
这 使 得 一 些 类 型 的 防 火 墙 无 法 起 作 用 。
iptables 代 理 不 会 隐 藏 Kubernetes 集 群 内 部 的 IP 地 址 , 但 却 要 求 客 户 端 请 求 必 须 通 过 一 个 负 载 均 衡 器 或 Node 端 口 。 < / p >
< p > < code > Type< / code > 字 段 支 持 嵌 套 功 能 — — 每 一 层 需 要 添 加 到 上 一 层 里 面 。
不 会 严 格 要 求 所 有 云 提 供 商 ( 例 如 , GCE 就 没 必 要 为 了 使 一 个 < code > LoadBalancer< / code > 能 工 作 而 分 配 一 个 < code > NodePort< / code > , 但 是 AWS 需 要 ) , 但 当 前 API 是 强 制 要 求 的 。 < / p >
< h2 id = "未来工作" > 未 来 工 作 < / h2 >
< p > 未 来 我 们 能 预 见 到 , 代 理 策 略 可 能 会 变 得 比 简 单 的 round-robin 均 衡 策 略 有 更 多 细 微 的 差 别 , 比 如 master 选 举 或 分 片 。
我 们 也 能 想 到 , 某 些 < code > Service< / code > 将 具 有 “ 真 正 ” 的 负 载 均 衡 器 , 这 种 情 况 下 VIP 将 简 化 数 据 包 的 传 输 。 < / p >
< p > 我 们 打 算 为 L7( HTTP) < code > Service< / code > 改 进 我 们 对 它 的 支 持 。 < / p >
< p > 我 们 打 算 为 < code > Service< / code > 实 现 更 加 灵 活 的 请 求 进 入 模 式 , 这 些 < code > Service< / code > 包 含 当 前 < code > ClusterIP< / code > 、 < code > NodePort< / code > 和 < code > LoadBalancer< / code > 模 式 , 或 者 更 多 。 < / p >
< h2 id = "vip-的那些骇人听闻的细节" > VIP 的 那 些 骇 人 听 闻 的 细 节 < / h2 >
< p > 对 很 多 想 使 用 < code > Service< / code > 的 人 来 说 , 前 面 的 信 息 应 该 足 够 了 。
然 而 , 有 很 多 内 部 原 理 性 的 内 容 , 还 是 值 去 理 解 的 。 < / p >
< h3 id = "避免冲突" > 避 免 冲 突 < / h3 >
< p > Kubernetes 最 主 要 的 哲 学 之 一 , 是 用 户 不 应 该 暴 露 那 些 能 够 导 致 他 们 操 作 失 败 、 但 又 不 是 他 们 的 过 错 的 场 景 。
这 种 场 景 下 , 让 我 们 来 看 一 下 网 络 端 口 — — 用 户 不 应 该 必 须 选 择 一 个 端 口 号 , 而 且 该 端 口 还 有 可 能 与 其 他 用 户 的 冲 突 。
这 就 是 说 , 在 彼 此 隔 离 状 态 下 仍 然 会 出 现 失 败 。 < / p >
< p > 为 了 使 用 户 能 够 为 他 们 的 < code > Service< / code > 选 择 一 个 端 口 号 , 我 们 必 须 确 保 不 能 有 2个 < code > Service< / code > 发 生 冲 突 。
我 们 可 以 通 过 为 每 个 < code > Service< / code > 分 配 它 们 自 己 的 IP 地 址 来 实 现 。 < / p >
< p > 为 了 保 证 每 个 < code > Service< / code > 被 分 配 到 一 个 唯 一 的 IP, 需 要 一 个 内 部 的 分 配 器 能 够 原 子 地 更 新 etcd 中 的 一 个 全 局 分 配 映 射 表 , 这 个 更 新 操 作 要 先 于 创 建 每 一 个 < code > Service< / code > 。
为 了 使 < code > Service< / code > 能 够 获 取 到 IP, 这 个 映 射 表 对 象 必 须 在 注 册 中 心 存 在 , 否 则 创 建 < code > Service< / code > 将 会 失 败 , 指 示 一 个 IP 不 能 被 分 配 。
一 个 后 台 Controller 的 职 责 是 创 建 映 射 表 ( 从 Kubernetes 的 旧 版 本 迁 移 过 来 , 旧 版 本 中 是 通 过 在 内 存 中 加 锁 的 方 式 实 现 ) , 并 检 查 由 于 管 理 员 干 预 和 清 除 任 意 IP 造 成 的 不 合 理 分 配 , 这 些 IP 被 分 配 了 但 当 前 没 有 < code > Service< / code > 使 用 它 们 。 < / p >
< h3 id = "ip-和-vip" > IP 和 VIP< / h3 >
< p > 不 像 < code > Pod< / code > 的 IP 地 址 , 它 实 际 路 由 到 一 个 固 定 的 目 的 地 , < code > Service< / code > 的 IP 实 际 上 不 能 通 过 单 个 主 机 来 进 行 应 答 。
相 反 , 我 们 使 用 < code > iptables< / code > ( Linux 中 的 数 据 包 处 理 逻 辑 ) 来 定 义 一 个 虚 拟 IP地 址 ( VIP) , 它 可 以 根 据 需 要 透 明 地 进 行 重 定 向 。
当 客 户 端 连 接 到 VIP 时 , 它 们 的 流 量 会 自 动 地 传 输 到 一 个 合 适 的 Endpoint。
环 境 变 量 和 DNS, 实 际 上 会 根 据 < code > Service< / code > 的 VIP 和 端 口 来 进 行 填 充 。 < / p >
< h4 id = "userspace" > Userspace< / h4 >
< p > 作 为 一 个 例 子 , 考 虑 前 面 提 到 的 图 片 处 理 应 用 程 序 。
当 创 建 backend < code > Service< / code > 时 , Kubernetes master 会 给 它 指 派 一 个 虚 拟 IP 地 址 , 比 如 10.0.0.1。
假 设 < code > Service< / code > 的 端 口 是 1234, 该 < code > Service< / code > 会 被 集 群 中 所 有 的 < code > kube-proxy< / code > 实 例 观 察 到 。
当 代 理 看 到 一 个 新 的 < code > Service< / code > , 它 会 打 开 一 个 新 的 端 口 , 建 立 一 个 从 该 VIP 重 定 向 到 新 端 口 的 iptables, 并 开 始 接 收 请 求 连 接 。 < / p >
< p > 当 一 个 客 户 端 连 接 到 一 个 VIP, iptables 规 则 开 始 起 作 用 , 它 会 重 定 向 该 数 据 包 到 < code > Service代 理 < / code > 的 端 口 。
< code > Service代 理 < / code > 选 择 一 个 backend, 并 将 客 户 端 的 流 量 代 理 到 backend 上 。 < / p >
< p > 这 意 味 着 < code > Service< / code > 的 所 有 者 能 够 选 择 任 何 他 们 想 使 用 的 端 口 , 而 不 存 在 冲 突 的 风 险 。
客 户 端 可 以 简 单 地 连 接 到 一 个 IP 和 端 口 , 而 不 需 要 知 道 实 际 访 问 了 哪 些 < code > Pod< / code > 。 < / p >
< h4 id = "iptables" > Iptables< / h4 >
< p > 再 次 考 虑 前 面 提 到 的 图 片 处 理 应 用 程 序 。
当 创 建 backend < code > Service< / code > 时 , Kubernetes master 会 给 它 指 派 一 个 虚 拟 IP 地 址 , 比 如 10.0.0.1。
假 设 < code > Service< / code > 的 端 口 是 1234, 该 < code > Service< / code > 会 被 集 群 中 所 有 的 < code > kube-proxy< / code > 实 例 观 察 到 。
当 代 理 看 到 一 个 新 的 < code > Service< / code > , 它 会 安 装 一 系 列 的 iptables 规 则 , 从 VIP 重 定 向 到 per-< code > Service< / code > 规 则 。
该 per-< code > Service< / code > 规 则 连 接 到 per-< code > Endpoint< / code > 规 则 , 该 per-< code > Endpoint< / code > 规 则 会 重 定 向 ( 目 标 NAT) 到 backend。 < / p >
< p > 当 一 个 客 户 端 连 接 到 一 个 VIP, iptables 规 则 开 始 起 作 用 。 一 个 backend 会 被 选 择 ( 或 者 根 据 会 话 亲 和 性 , 或 者 随 机 ) , 数 据 包 被 重 定 向 到 这 个 backend。
不 像 userspace 代 理 , 数 据 包 从 来 不 拷 贝 到 用 户 空 间 , kube-proxy 不 是 必 须 为 该 VIP 工 作 而 运 行 , 并 且 客 户 端 IP 是 不 可 更 改 的 。
当 流 量 打 到 Node 的 端 口 上 , 或 通 过 负 载 均 衡 器 , 会 执 行 相 同 的 基 本 流 程 , 但 是 在 那 些 案 例 中 客 户 端 IP 是 可 以 更 改 的 。 < / p >
< h2 id = "api-对象" > API 对 象 < / h2 >
< p > 在 Kubernetes REST API 中 , Service 是 top-level 资 源 。 关 于 API 对 象 的 更 多 细 节 可 以 查 看 : < a href = "https://kubernetes.io/docs/api-reference/v1.7/#service-v1-core" target = "_blank" > Service API 对 象 < / a > 。 < / p >
< h2 id = "更多信息" > 更 多 信 息 < / h2 >
< p > 阅 读 < a href = "https://kubernetes.io/docs/tutorials/connecting-apps/connecting-frontend-backend/" target = "_blank" > 使 用 Service 连 接 Frontend 到 Backend< / a > 。 < / p >
2017-10-09 15:28:05 +08:00
< footer class = "page-footer" > < span class = "copyright" > Copyright © jimmysong.io 2017 all right reserved, powered by Gitbook< / span > < span class = "footer-modification" > Updated:
2017-08-21 18:23:34
< / span > < / footer >
2017-08-21 17:44:43 +08:00
< / section >
< / div >
< div class = "search-results" >
< div class = "has-results" >
< h1 class = "search-results-title" > < span class = 'search-results-count' > < / span > results matching "< span class = 'search-query' > < / span > "< / h1 >
< ul class = "search-results-list" > < / ul >
< / div >
< div class = "no-results" >
< h1 class = "search-results-title" > No results matching "< span class = 'search-query' > < / span > "< / h1 >
< / div >
< / div >
< / div >
< / div >
< / div >
< / div >
< a href = "namespace.html" class = "navigation navigation-prev " aria-label = "Previous page: 2.2.3 Namespace" >
< i class = "fa fa-angle-left" > < / i >
< / a >
< a href = "volume.html" class = "navigation navigation-next " aria-label = "Next page: 2.2.5 Volume和Persistent Volume" >
< i class = "fa fa-angle-right" > < / i >
< / a >
< / div >
< script >
var gitbook = gitbook || [];
gitbook.push(function() {
2017-10-14 01:25:30 +08:00
gitbook.page.hasChanged({"page":{"title":"2.2.4 Service","level":"1.2.2.4","depth":3,"next":{"title":"2.2.5 Volume和Persistent Volume","level":"1.2.2.5","depth":3,"path":"concepts/volume.md","ref":"concepts/volume.md","articles":[]},"previous":{"title":"2.2.3 Namespace","level":"1.2.2.3","depth":3,"path":"concepts/namespace.md","ref":"concepts/namespace.md","articles":[]},"dir":"ltr"},"config":{"plugins":["github","codesnippet","splitter","page-toc-button","image-captions","editlink","back-to-top-button","-lunr","-search","search-plus","github-buttons@2.1.0","favicon@^0.0.2","tbfed-pagefooter@^0.0.1","3-ba"],"styles":{"website":"styles/website.css","pdf":"styles/pdf.css","epub":"styles/epub.css","mobi":"styles/mobi.css","ebook":"styles/ebook.css","print":"styles/print.css"},"pluginsConfig":{"tbfed-pagefooter":{"copyright":"Copyright © jimmysong.io 2017","modify_label":"Updated:","modify_format":"YYYY-MM-DD HH:mm:ss"},"github":{"url":"https://github.com/rootsongjc/kubernetes-handbook"},"editlink":{"label":"编辑本页","multilingual":false,"base":"https://github.com/rootsongjc/kubernetes-handbook/blob/master/"},"splitter":{},"codesnippet":{},"fontsettings":{"theme":"white","family":"sans","size":2},"highlight":{},"favicon":{"shortcut":"favicon.ico","bookmark":"favicon.ico"},"page-toc-button":{},"back-to-top-button":{},"github-buttons":{"repo":"rootsongjc/kubernetes-handbook","types":["star"],"size":"small"},"3-ba":{"configuration":"auto","token":"11f7d254cfa4e0ca44b175c66d379ecc"},"sharing":{"facebook":true,"twitter":true,"google":false,"weibo":false,"instapaper":false,"vk":false,"all":["facebook","google","twitter","weibo","instapaper"]},"theme-default":{"styles":{"website":"styles/website.css","pdf":"styles/pdf.css","epub":"styles/epub.css","mobi":"styles/mobi.css","ebook":"styles/ebook.css","print":"styles/print.css"},"showLevel":false},"search-plus":{},"image-captions":{"caption":"图片 - _CAPTION_","variable_name":"_pictures"}},"theme":"default","author":"Jimmy Song","pdf":{"pageNumbers":true,"fontSize":12,"fontFamily":"Arial","paperSize":"a4","chapterMark":"pagebreak","pageBreaksBefore":"/","margin":{"right":62,"left":62,"top":56,"bottom":56}},"structure":{"langs":"LANGS.md","readme":"README.md","glossary":"GLOSSARY.md","summary":"SUMMARY.md"},"variables":{"_pictures":[{"backlink":"concepts/index.html#fig1.2.1","level":"1.2","list_caption":"Figure: Borg架构","alt":"Borg架构","nro":1,"url":"../images/borg.png","index":1,"caption_template":"图片 - _CAPTION_","label":"Borg架构","attributes":{},"skip":false,"key":"1.2.1"},{"backlink":"concepts/index.html#fig1.2.2","level":"1.2","list_caption":"Figure: Kubernetes架构","alt":"Kubernetes架构","nro":2,"url":"../images/architecture.png","index":2,"caption_template":"图片 - _CAPTION_","label":"Kubernetes架构","attributes":{},"skip":false,"key":"1.2.2"},{"backlink":"concepts/index.html#fig1.2.3","level":"1.2","list_caption":"Figure: kubernetes整体架构示意图","alt":"kubernetes整体架构示意图","nro":3,"url":"../images/kubernetes-whole-arch.png","index":3,"caption_template":"图片 - _CAPTION_","label":"kubernetes整体架构示意图","attributes":{},"skip":false,"key":"1.2.3"},{"backlink":"concepts/index.html#fig1.2.4","level":"1.2","list_caption":"Figure: Kubernetes master架构示意图","alt":"Kubernetes master架构示意图","nro":4,"url":"../images/kubernetes-master-arch.png","index":4,"caption_template":"图片 - _CAPTION_","label":"Kubernetes master架构示意图","attributes":{},"skip":false,"key":"1.2.4"},{"backlink":"concepts/index.html#fig1.2.5","level":"1.2","list_caption":"Figure: kubernetes node架构示意图","alt":"kubernetes node架构示意图","nro":5,"url":"../images/kubernetes-node-arch.png","index":5,"caption_template":"图片 - _CAPTION_","label":"kubernetes node架构示意图","attributes":{},"skip":false,"key":"1.2.5"},{"backlink":"concepts/index.html#fig1.2.6","level":"1.2","list_caption":"Figure: Kubernetes分层架构示意图","alt":"Kubernetes分层架构示意图","nro":6,"url":"../images/kubernete
2017-08-21 17:44:43 +08:00
});
< / script >
< / div >
< script src = "../gitbook/gitbook.js" > < / script >
< script src = "../gitbook/theme.js" > < / script >
< script src = "../gitbook/gitbook-plugin-github/plugin.js" > < / script >
< script src = "../gitbook/gitbook-plugin-splitter/splitter.js" > < / script >
< script src = "../gitbook/gitbook-plugin-page-toc-button/plugin.js" > < / script >
< script src = "../gitbook/gitbook-plugin-editlink/plugin.js" > < / script >
2017-09-19 21:38:03 +08:00
< script src = "../gitbook/gitbook-plugin-back-to-top-button/plugin.js" > < / script >
2017-08-21 17:44:43 +08:00
< script src = "../gitbook/gitbook-plugin-search-plus/jquery.mark.min.js" > < / script >
< script src = "../gitbook/gitbook-plugin-search-plus/search.js" > < / script >
2017-10-09 15:28:05 +08:00
< script src = "../gitbook/gitbook-plugin-github-buttons/plugin.js" > < / script >
2017-10-11 18:13:13 +08:00
< script src = "../gitbook/gitbook-plugin-3-ba/plugin.js" > < / script >
2017-08-21 17:44:43 +08:00
< script src = "../gitbook/gitbook-plugin-sharing/buttons.js" > < / script >
< script src = "../gitbook/gitbook-plugin-fontsettings/fontsettings.js" > < / script >
< / body >
< / html >