Fix content formatting and typos

pull/60/head
Baohua Yang 2015-05-21 20:23:53 +08:00
parent c814568560
commit 7f4e4145b0
5 changed files with 181 additions and 130 deletions

BIN
_images/swarm.png 100644

Binary file not shown.

After

Width:  |  Height:  |  Size: 103 KiB

View File

@ -1,83 +1,100 @@
## Swarm 过滤器 ## Swarm 过滤器
swarm的调度器(scheduler)在选择节点运行containers的时候支持几种过滤器 (filter)Constraint,Affinity,Port,Dependency,Health swarm 的调度器(scheduler)在选择节点运行容器的时候支持几种过滤器 (filter)Constraint,Affinity,Port,Dependency,Health
这些选项可以在执行swarm manage命令的时候通过--filter选项来设置。
可以在执行 `swarm manage` 命令的时候通过 `--filter` 选项来设置。
###Constraint Filter ###Constraint Filter
constraint 是一个跟具体节点相关联的键值对可以看做是每个节点的标签这个标签可以在启动docker daemon的时候指定比如 constraint 是一个跟具体节点相关联的键值对可以看做是每个节点的标签这个标签可以在启动docker daemon的时候指定比如
<pre><code> ```sh
sudo docker -d --label label_name=label01 sudo docker -d --label label_name=label01
</code></pre> ```
也可以写在docker的配置文件里面在ubuntu上面是/etc/default/docker
也可以写在docker的配置文件里面在ubuntu上面是 `/etc/default/docker`)。
在本次试验中给083添加标签--label label_name=083,084添加标签--label label_name=084,124添加标签--label label_name=084, 在本次试验中给083添加标签--label label_name=083,084添加标签--label label_name=084,124添加标签--label label_name=084,
以083为例打开/etc/default/docker文件修改DOCKER_OPTS 以083为例打开/etc/default/docker文件修改DOCKER_OPTS
<pre><code> ```sh
DOCKER_OPTS="-H 0.0.0.0:2375 -H unix:///var/run/docker.sock --label label_name=083" DOCKER_OPTS="-H 0.0.0.0:2375 -H unix:///var/run/docker.sock --label label_name=083"
</code></pre> ```
在使用docker run命令启动container的时候使用 -e constarint:key=value的形式可以指定container运行的节点,比如我们想在84上面启动一个redis container
<pre><code> 在使用docker run命令启动容器的时候使用 `-e constarint:key=value` 的形式可以指定container运行的节点。
比如我们想在84上面启动一个 redis 容器。
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_1 -d -e constraint:label_name==084 redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_1 -d -e constraint:label_name==084 redis
fee1b7b9dde13d64690344c1f1a4c3f5556835be46b41b969e4090a083a6382d fee1b7b9dde13d64690344c1f1a4c3f5556835be46b41b969e4090a083a6382d
</code></pre> ```
主要,是**两个**等号,不是一个等号,这一点会经常被忽略。 注意,是**两个**等号,不是一个等号,这一点会经常被忽略。
接下来再在084这台机器上启动一个redis container
<pre><code> 接下来再在084这台机器上启动一个redis 容器。
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_2 -d -e constraint:label_name==084 redis 4968d617d9cd122fc2e17b3bad2f2c3b5812c0f6f51898024a96c4839fa000e1 rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_2 -d -e constraint:label_name==084 redis 4968d617d9cd122fc2e17b3bad2f2c3b5812c0f6f51898024a96c4839fa000e1
</code></pre> ```
然后再在083这台机器上启动另外一个redis container 然后再在083这台机器上启动另外一个 redis 容器。
<pre><code> ```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_3 -d -e constraint:label_name==083 redis 7786300b8d2232c2335ac6161c715de23f9179d30eb5c7e9c4f920a4f1d39570 rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_3 -d -e constraint:label_name==083 redis 7786300b8d2232c2335ac6161c715de23f9179d30eb5c7e9c4f920a4f1d39570
</code></pre> ```
现在来看下执行情况: 现在来看下执行情况:
<pre><code> ```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 ps rio@085:~$ sudo docker -H 192.168.1.83:2376 ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
7786300b8d22 redis:latest "/entrypoint.sh redi 15 minutes ago Up 53 seconds 6379/tcp 083/redis_3 7786300b8d22 redis:latest "/entrypoint.sh redi 15 minutes ago Up 53 seconds 6379/tcp 083/redis_3
4968d617d9cd redis:latest "/entrypoint.sh redi 16 minutes ago Up 2 minutes 6379/tcp 084/redis_2 4968d617d9cd redis:latest "/entrypoint.sh redi 16 minutes ago Up 2 minutes 6379/tcp 084/redis_2
fee1b7b9dde1 redis:latest "/entrypoint.sh redi 19 minutes ago Up 5 minutes 6379/tcp 084/redis_1 fee1b7b9dde1 redis:latest "/entrypoint.sh redi 19 minutes ago Up 5 minutes 6379/tcp 084/redis_1
</code></pre> ```
可以看到,执行结果跟预期的一样。 可以看到,执行结果跟预期的一样。
但是如果指定一个不存在的标签的话来运行container会报错。
<pre><code> 但是如果指定一个不存在的标签的话来运行容器会报错。
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_0 -d -e constraint:label_name==0 redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name redis_0 -d -e constraint:label_name==0 redis
FATA[0000] Error response from daemon: unable to find a node that satisfies label_name==0 FATA[0000] Error response from daemon: unable to find a node that satisfies label_name==0
</code></pre> ```
###Affinity Filter ###Affinity Filter
通过使用Affinity Filter可以让一个container紧挨着另一个container启动也就是说让两个container在同一个节点上面启动。 通过使用 Affinity Filter可以让一个容器紧挨着另一个容器启动也就是说让两个容器在同一个节点上面启动。
现在其中一台机器上面启动一个redis
<pre><code> 现在其中一台机器上面启动一个 redis 容器。
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run -d --name redis redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run -d --name redis redis
ea13eddf667992c5d8296557d3c282dd8484bd262c81e2b5af061cdd6c82158d ea13eddf667992c5d8296557d3c282dd8484bd262c81e2b5af061cdd6c82158d
rio@085:~$ sudo docker -H 192.168.1.83:2376 ps rio@085:~$ sudo docker -H 192.168.1.83:2376 ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ea13eddf6679 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 6379/tcp 083/redis ea13eddf6679 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 6379/tcp 083/redis
</code></pre> ```
然后再次启动两台redis
<pre><code> 然后再次启动两个 redis 容器。
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run -d --name redis_1 -e affinity:container==redis redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run -d --name redis_1 -e affinity:container==redis redis
bac50c2e955211047a745008fd1086eaa16d7ae4f33c192f50412e8dcd0a14cd bac50c2e955211047a745008fd1086eaa16d7ae4f33c192f50412e8dcd0a14cd
rio@085:~$ sudo docker -H 192.168.1.83:2376 run -d --name redis_1 -e affinity:container==redis redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run -d --name redis_1 -e affinity:container==redis redis
bac50c2e955211047a745008fd1086eaa16d7ae4f33c192f50412e8dcd0a14cd bac50c2e955211047a745008fd1086eaa16d7ae4f33c192f50412e8dcd0a14cd
</code></pre> ```
现在来查看下运行结果,可以看到三个container都是在一台机器上运行 现在来查看下运行结果,可以看到三个容器都是在一台机器上运行
<pre><code> ```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 ps rio@085:~$ sudo docker -H 192.168.1.83:2376 ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
449ed25ad239 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 6379/tcp 083/redis_2 449ed25ad239 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 6379/tcp 083/redis_2
bac50c2e9552 redis:latest /entrypoint.sh redis 25 minutes ago Up 10 seconds 6379/tcp 083/redis_1 bac50c2e9552 redis:latest /entrypoint.sh redis 25 minutes ago Up 10 seconds 6379/tcp 083/redis_1
ea13eddf6679 redis:latest /entrypoint.sh redis 28 minutes ago Up 3 minutes 6379/tcp 083/redis ea13eddf6679 redis:latest /entrypoint.sh redis 28 minutes ago Up 3 minutes 6379/tcp 083/redis
</code></pre> ```
通过-e affinity:image=image_name命令可以指定只有已经下载了image_name的机器才运行容器 通过 `-e affinity:image=image_name` 命令可以指定只有已经下载了`image_name`镜像的机器才运行容器
<pre><code> ```sh
sudo docker H 192.168.1.83:2376 run name redis1 d e affinity:image==redis redis sudo docker H 192.168.1.83:2376 run name redis1 d e affinity:image==redis redis
</code></pre> ```
redis1这个container只会在已经下载了redis镜像的节点上运行。 redis1 这个容器只会在已经下载了 redis 镜像的节点上运行。
<pre><code>
```sh
sudo docker -H 192.168.1.83:2376 run -d --name redis -e affinity:image==~redis redis sudo docker -H 192.168.1.83:2376 run -d --name redis -e affinity:image==~redis redis
</code></pre> ```
这条命令达到的效果是在有redis镜像的节点上面启动一个名字叫做redis的容器如果每个节点上面都没有redis容器就按照默认的策略启动redis容器。 这条命令达到的效果是:在有 redis 镜像的节点上面启动一个名字叫做 redis 的容器,如果每个节点上面都没有 redis 容器,就按照默认的策略启动 redis 容器。
###Port Filter ###Port Filter
Port也会被认为是一个唯一的资源 Port 也会被认为是一个唯一的资源
<pre><code> ```sh
sudo docker -H 192.168.1.83:2376 run -d -p 80:80 nginx sudo docker -H 192.168.1.83:2376 run -d -p 80:80 nginx
</code></pre> ```
执行完这条命令之后任何使用80端口的容器都是启动失败。
执行完这条命令,之后任何使用 80 端口的容器都是启动失败。

View File

@ -1,10 +1,16 @@
## 简介 ## 简介
swarm是Docker公司官方在2014年12月初发布的一套较为简单的工具用来管理Docker集群它将一群Docker宿主机变成一个单一的虚拟的主机。Swarm使用标准的Docker API接口作为其前端访问入口换言之各种形式的Docker工具比如Dokku,Compose,Krane,Deis,docker-py,docker本身等都可以很容易的与swarm进行集成。 Swarm 是 Docker公司官方在 2014 年 12月初发布的一套管理 Docker 集群的工具。它将一群 Docker 宿主机变成一个单一的,虚拟的主机。
Swarm 使用标准的 Docker API 接口作为其前端访问入口,换言之,各种形式的 Docker 工具比如 Dokku,Compose,Krane,Deis,docker-py,Docker 本身等都可以很容易的与 Swarm 进行集成。
![Swarm 结构图](../images/swarm.png)
在使用swarm管理docker集群时会有一个swarm manager以及若干的swarm nodeswarm manager上运行swarm daemon用户只需要跟swarm manager通信然后swarm manager再根据discovery service的信息选择一个swarm node来运行container。
值得注意的是swarm daemon只是一个任务调度器(scheduler)和路由器(router),它本身不运行容器,它只接受 Docker client 发送过来的请求,调度合适的 swarm node 来运行container。这意味着即使 swarm daemon 由于某些原因挂掉了,已经运行起来的容器也不会有任何影响。
![swarm结构图](file:///C:/Users/RIO/Desktop/12.png)
在使用swarm管理docker集群时会有一个swarm manager以及若干的swarm nodeswarm manager上运行swarm daemon用户只需要跟swarm manager通信然后swarm manager再根据discovery service的信息选择一个swarm node来运行container。值得注意的是swarm daemon只是一个任务调度器(scheduler)和路由器(router),它本身不运行container它只接受docker client发送过来的请求调度合适的swarm node来运行container。这意味着即使swarm daemon由于某些原因挂掉了已经运行起来的container也不会有任何影响。
有以下两点需要注意: 有以下两点需要注意:
1. 集群中的每台节点上面的docker的版本都不能小于1.4 * 集群中的每台节点上面的 Docker 的版本都不能小于1.4
2. 为了让swarm manager能够跟每台swarm node进行通信集群中的每台节点的docker daemon都必须监听同一个网络接口 * 为了让 swarm manager 能够跟每台 swarm node 进行通信,集群中的每台节点的 Docker daemon 都必须监听同一个网络接口。

View File

@ -1,26 +1,33 @@
## swarm 调度策略 ## swarm 调度策略
swarm支持多种调度策略来选择节点。每次在swarm启动container的时候swarm会根据选择的调度策略来选择节点运行container。目前支持的有:spread,binpack和random.再执行swarm manage的命令起送swarm集群的时候可以通过--strategy参数来指定默认的是spread。 swarm支持多种调度策略来选择节点。每次在swarm启动container的时候swarm会根据选择的调度策略来选择节点运行container。目前支持的有:spread,binpack和random。
spread和binpack策略会根据每台节点的可用CPU内存以及正在运行的containers的数量来给各个节点分级而random策略顾名思义他不会做任何的计算只是单纯的随机选择一个节点来启动container。这种策略一般只做调试用。
使用spread策略swarm会选择一个正在运行的container的数量最少的那个节点来运行container。这种情况会导致启动的container会尽可能的分布在不同的机器上运行这样的好处就是如果有节点坏掉的时候不会损失太多的container。而binpack恰恰相反这种情况下swarm会尽可能的把所有的容器放在一台节点上面运行。这种策略会避免容器碎片化因为他会把未使用的机器分配给更大的container带来的好处就是swarm会使用最少的节点运行最多的container。
先来演示下--strategy=spread的情况 在执行`swarm manage`命令启动 swarm 集群的时候可以通过 `--strategy` 参数来指定默认的是spread。
<pre><code>
spread和binpack策略会根据每台节点的可用CPU内存以及正在运行的containers的数量来给各个节点分级而random策略顾名思义他不会做任何的计算只是单纯的随机选择一个节点来启动container。这种策略一般只做调试用。
使用spread策略swarm会选择一个正在运行的container的数量最少的那个节点来运行container。这种情况会导致启动的container会尽可能的分布在不同的机器上运行这样的好处就是如果有节点坏掉的时候不会损失太多的container。
binpack 则相反这种情况下swarm会尽可能的把所有的容器放在一台节点上面运行。这种策略会避免容器碎片化因为他会把未使用的机器分配给更大的容器带来的好处就是swarm会使用最少的节点运行最多的容器。
### spread 策略
先来演示下 spread 策略的情况。
```sh
rio@083:~$ sudo docker run -d -p 2376:2375 -v $(pwd)/cluster:/tmp/cluster swarm manage --strategy=spread file:///tmp/cluster rio@083:~$ sudo docker run -d -p 2376:2375 -v $(pwd)/cluster:/tmp/cluster swarm manage --strategy=spread file:///tmp/cluster
7609ac2e463f435c271d17887b7d1db223a5d696bf3f47f86925c781c000cb60 7609ac2e463f435c271d17887b7d1db223a5d696bf3f47f86925c781c000cb60
ats@sclu083:~$ sudo docker ps ats@sclu083:~$ sudo docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
7609ac2e463f swarm:latest "/swarm manage --str 6 seconds ago Up 5 seconds 0.0.0.0:2376->2375/tcp focused_babbage 7609ac2e463f swarm:latest "/swarm manage --str 6 seconds ago Up 5 seconds 0.0.0.0:2376->2375/tcp focused_babbage
</code></pre> ```
三台机器除了83运行了swarm之外其他的都没有运行任何一个container现在在85这台节点上面在swarm集群上启动一个container 三台机器除了83运行了 Swarm之外其他的都没有运行任何一个容器现在在85这台节点上面在swarm集群上启动一个容器
<pre><code> ```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-1 -d -P redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-1 -d -P redis
2553799f1372b432e9b3311b73e327915d996b6b095a30de3c91a47ff06ce981 2553799f1372b432e9b3311b73e327915d996b6b095a30de3c91a47ff06ce981
rio@085:~$ sudo docker -H 192.168.1.83:2376 ps rio@085:~$ sudo docker -H 192.168.1.83:2376 ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2553799f1372 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 192.168.1.84:32770->6379/tcp 084/node-1 2553799f1372 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 192.168.1.84:32770->6379/tcp 084/node-1
</code></pre> ```
启动一个 redis 容器,查看结果 启动一个 redis 容器,查看结果
<pre><code> ```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-2 -d -P redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-2 -d -P redis
7965a17fb943dc6404e2c14fb8585967e114addca068f233fcaf60c13bcf2190 7965a17fb943dc6404e2c14fb8585967e114addca068f233fcaf60c13bcf2190
@ -28,9 +35,9 @@ rio@085:~$ sudo docker -H 192.168.1.83:2376 ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
7965a17fb943 redis:latest /entrypoint.sh redis Less than a second ago Up 1 seconds 192.168.1.124:49154->6379/tcp 124/node-2 7965a17fb943 redis:latest /entrypoint.sh redis Less than a second ago Up 1 seconds 192.168.1.124:49154->6379/tcp 124/node-2
2553799f1372 redis:latest /entrypoint.sh redis 29 minutes ago Up 4 minutes 192.168.1.84:32770->6379/tcp 084/node-1 2553799f1372 redis:latest /entrypoint.sh redis 29 minutes ago Up 4 minutes 192.168.1.84:32770->6379/tcp 084/node-1
</code></pre> ```
再次启动一个redis查看结果 再次启动一个 redis 容器,查看结果
<pre><code> ```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-3 -d -P redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-3 -d -P redis
65e1ed758b53fbf441433a6cb47d288c51235257cf1bf92e04a63a8079e76bee 65e1ed758b53fbf441433a6cb47d288c51235257cf1bf92e04a63a8079e76bee
rio@085:~$ sudo docker -H 192.168.1.83:2376 ps rio@085:~$ sudo docker -H 192.168.1.83:2376 ps
@ -38,16 +45,18 @@ CONTAINER ID IMAGE COMMAND CREA
7965a17fb943 redis:latest /entrypoint.sh redis Less than a second ago Up 4 minutes 192.168.1.227:49154->6379/tcp 124/node-2 7965a17fb943 redis:latest /entrypoint.sh redis Less than a second ago Up 4 minutes 192.168.1.227:49154->6379/tcp 124/node-2
65e1ed758b53 redis:latest /entrypoint.sh redis 25 minutes ago Up 17 seconds 192.168.1.83:32770->6379/tcp 083/node-3 65e1ed758b53 redis:latest /entrypoint.sh redis 25 minutes ago Up 17 seconds 192.168.1.83:32770->6379/tcp 083/node-3
2553799f1372 redis:latest /entrypoint.sh redis 33 minutes ago Up 8 minutes 192.168.1.84:32770->6379/tcp 084/node-1 2553799f1372 redis:latest /entrypoint.sh redis 33 minutes ago Up 8 minutes 192.168.1.84:32770->6379/tcp 084/node-1
</code></pre> ```
可以看到三个container都是分布在不同的节点上面的。 可以看到三个容器都是分布在不同的节点上面的。
### binpack 策略
现在来看看binpack策略下的情况。在083上面执行命令 现在来看看binpack策略下的情况。在083上面执行命令
<pre><code> ```sh
rio@083:~$ sudo docker run -d -p 2376:2375 -v $(pwd)/cluster:/tmp/cluster swarm manage --strategy=binpack file:///tmp/cluster rio@083:~$ sudo docker run -d -p 2376:2375 -v $(pwd)/cluster:/tmp/cluster swarm manage --strategy=binpack file:///tmp/cluster
f1c9affd5a0567870a45a8eae57fec7c78f3825f3a53fd324157011aa0111ac5 f1c9affd5a0567870a45a8eae57fec7c78f3825f3a53fd324157011aa0111ac5
</code></pre> ```
现在在集群中启动三个rediscontainer查看分布情况
<pre><code> 现在在集群中启动三个 redis 容器,查看分布情况:
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-1 -d -P redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-1 -d -P redis
18ceefa5e86f06025cf7c15919fa64a417a9d865c27d97a0ab4c7315118e348c 18ceefa5e86f06025cf7c15919fa64a417a9d865c27d97a0ab4c7315118e348c
rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-2 -d -P redis rio@085:~$ sudo docker -H 192.168.1.83:2376 run --name node-2 -d -P redis
@ -59,5 +68,6 @@ CONTAINER ID IMAGE COMMAND CREATED
2195086965a7 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 192.168.1.83:32773->6379/tcp 083/node-3 2195086965a7 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 192.168.1.83:32773->6379/tcp 083/node-3
7e778bde1a99 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 192.168.1.83:32772->6379/tcp 083/node-2 7e778bde1a99 redis:latest /entrypoint.sh redis 24 minutes ago Up Less than a second 192.168.1.83:32772->6379/tcp 083/node-2
18ceefa5e86f redis:latest /entrypoint.sh redis 25 minutes ago Up 22 seconds 192.168.1.83:32771->6379/tcp 083/node-1 18ceefa5e86f redis:latest /entrypoint.sh redis 25 minutes ago Up 22 seconds 192.168.1.83:32771->6379/tcp 083/node-1
</code></pre> ```
可以看到所有的container都是分布在同一个节点上运行的。
可以看到,所有的容器都是分布在同一个节点上运行的。

View File

@ -1,81 +1,99 @@
## 使用 ## 使用
在使用swarm管理集群前需要把集群中所有的节点的docker daemon的监听方式更改为0.0.0.0:2375,可以有两种方式达到这个目的第一种是在启动docker daemon的时候指定 在使用 swarm 管理集群前,需要把集群中所有的节点的 docker daemon 的监听方式更改为 `0.0.0.0:2375`
> sudo docker -H 0.0.0.0:2375&
第二种方式是直接修改docker的配置文件(以下方式是在ubuntu上面其他版本的linux上略有不同) 可以有两种方式达到这个目的第一种是在启动docker daemon的时候指定
> sudo vim /etc/default/docker ```sh
sudo docker -H 0.0.0.0:2375&
```
第二种方式是直接修改 Docker 的配置文件(Ubuntu 上是 `/etc/default/docker`,其他版本的 Linux 上略有不同)
在文件的最后添加下面这句代码: 在文件的最后添加下面这句代码:
> DOCKER_OPTS="-H 0.0.0.0:2375 -H unix:///var/run/docker.sock" ```sh
DOCKER_OPTS="-H 0.0.0.0:2375 -H unix:///var/run/docker.sock"
```
需要注意的是,一定要在**所有的**节点上进行的。
修改之后要重启docker
> sudo service docker restart
Docker的集群管理需要使用服务发现(Discovery service backend)功能Swarm支持以下的几种方式DockerHub上内置的服务发现功能本地的文件etcdcounselzookeeper和IP列表本文会详细讲解前两种方式其他的用法都是大同小异的。 需要注意的是,一定要在所有希望被 Swarm 管理的节点上进行的。修改之后要重启 Docker
```sh
sudo service docker restart
```
Docker 集群管理需要使用服务发现(Discovery service backend)功能Swarm支持以下的几种方式DockerHub 提供的服务发现功能本地的文件etcdcounselzookeeper 和 IP 列表,本文会详细讲解前两种方式,其他的用法都是大同小异的。
先说一下本次试验的环境本次试验包括三台机器IP地址分别为192.168.1.84,192.168.1.83和192.168.1.124.利用这三台机器组成一个docker集群其中83这台机器同时充当swarm manager节点。 先说一下本次试验的环境本次试验包括三台机器IP地址分别为192.168.1.84,192.168.1.83和192.168.1.124.利用这三台机器组成一个docker集群其中83这台机器同时充当swarm manager节点。
第一种方式使用DockerHub上面内置的服务发现功能 ### 使用 DockerHub 提供的服务发现功能
第一步在上面三台机器中的任何一台机器上面执行swarm create命令来获取一个集群标志。这条命令执行完毕后swarm会前往DockerHub上内置的发现服务中获取一个全球唯一的token用来标识要管理的集群。 #### 创建集群 token
> sudo docker run --rm swarm create
在上面三台机器中的任何一台机器上面执行 `swarm create` 命令来获取一个集群标志。这条命令执行完毕后Swarm 会前往 DockerHub 上内置的发现服务中获取一个全球唯一的 token用来标识要管理的集群。
```sh
sudo docker run --rm swarm create
```
我们在84这台机器上执行这条命令输出如下 我们在84这台机器上执行这条命令输出如下
<pre><code> ```sh
rio@084:~$ sudo docker run --rm swarm create rio@084:~$ sudo docker run --rm swarm create
b7625e5a7a2dc7f8c4faacf2b510078e b7625e5a7a2dc7f8c4faacf2b510078e
</code></pre> ```
可以看到我们返回的token是b7625e5a7a2dc7f8c4faacf2b510078e每次返回的结果都是不一样的。这个token一定要记住后面的操作都会用到这个token。 可以看到我们返回的 token `b7625e5a7a2dc7f8c4faacf2b510078e`,每次返回的结果都是不一样的。这个 token 一定要记住,后面的操作都会用到这个 token。
第二步:在**所有**要加入这个集群的节点上面执行swarm join命令表示要把这台机器加入这个集群当中。在本次试验中就是要在83,84和124这三台机器上执行下面的这条命令 #### 加入集群
<pre><code>
在所有要加入集群的节点上面执行 `swarm join` 命令,表示要把这台机器加入这个集群当中。在本次试验中,就是要在 83、84 和 124 这三台机器上执行下面的这条命令:
```sh
sudo docker run --rm swarm join addr=ip_address:2375 token://token_id sudo docker run --rm swarm join addr=ip_address:2375 token://token_id
</code></pre> ```
其中的ip_address换成执行这条命令的机器的IPtoken_id换成上一步执行swarm create返回的token。 其中的 ip_address 换成执行这条命令的机器的 IPtoken_id 换成上一步执行 `swarm create` 返回的 token。
在83这台机器上面的执行结果如下 在83这台机器上面的执行结果如下
<pre><code> ```sh
rio@083:~$ sudo docker run --rm swarm join --addr=192.168.1.83:2375 token://b7625e5a7a2dc7f8c4faacf2b510078e rio@083:~$ sudo docker run --rm swarm join --addr=192.168.1.83:2375 token://b7625e5a7a2dc7f8c4faacf2b510078e
time="2015-05-19T11:48:03Z" level=info msg="Registering on the discovery service every 25 seconds..." addr="192.168.1.83:2375" discovery="token://b7625e5a7a2dc7 f8c4faacf2b510078e" time="2015-05-19T11:48:03Z" level=info msg="Registering on the discovery service every 25 seconds..." addr="192.168.1.83:2375" discovery="token://b7625e5a7a2dc7 f8c4faacf2b510078e"
</code></pre> ```
这条命令不会自动返回要我们自己执行Ctrl+C返回。 这条命令不会自动返回,要我们自己执行 `Ctrl+C` 返回。
第三步:启动swarm manager #### 启动swarm manager
因为我们要使用83这台机器充当swarm manager节点所以需要在83这台机器上面执行swarm manage命令 因为我们要使用 83 这台机器充当 swarm 管理节点所以需要在83这台机器上面执行 `swarm manage` 命令:
<pre><code> ```sh
sudo docker run -d -p 2376:2375 swarm manage token://b7625e5a7a2dc7f8c4faacf2b510078e sudo docker run -d -p 2376:2375 swarm manage token://b7625e5a7a2dc7f8c4faacf2b510078e
</code></pre> ```
执行结果如下: 执行结果如下:
<pre><code> ```sh
rio@083:~$ sudo docker run -d -p 2376:2375 swarm manage token://b7625e5a7a2dc7f8c4faacf2b510078e rio@083:~$ sudo docker run -d -p 2376:2375 swarm manage token://b7625e5a7a2dc7f8c4faacf2b510078e
83de3e9149b7a0ef49916d1dbe073e44e8c31c2fcbe98d962a4f85380ef25f76 83de3e9149b7a0ef49916d1dbe073e44e8c31c2fcbe98d962a4f85380ef25f76
</code></pre> ```
这条命令如果执行成功会返回已经启动的swarm的container的ID此时整个集群已经启动起来了。 这条命令如果执行成功会返回已经启动的 Swarm 的容器的 ID此时整个集群已经启动起来了。
现在通过docker ps命令来看下有没有启动成功
<pre><code> 现在通过 `docker ps` 命令来看下有没有启动成功。
```sh
rio@083:~$ sudo docker ps rio@083:~$ sudo docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
83de3e9149b7 swarm:latest "/swarm manage token 4 minutes ago Up 4 minutes 0.0.0.0:2376->2375/tcp stupefied_stallman 83de3e9149b7 swarm:latest "/swarm manage token 4 minutes ago Up 4 minutes 0.0.0.0:2376->2375/tcp stupefied_stallman
</code></pre> ```
可以看到,swarm已经成功启动。 可以看到,Swarm 已经成功启动。
在执行swarm manage这条命令的时候,有几点需要注意的: 在执行 `Swarm manage` 这条命令的时候,有几点需要注意的:
1. 这条命令需要在充当swarm manager的机器上执行 * 这条命令需要在充当 swarm 管理者的机器上执行
2. swarm要以daemon的形式执行 * Swarm 要以 daemon 的形式执行
3. 映射的端口可以使任意的除了2375以外的并且是未被占用的端口但一定不能是2375这个端口因为2375已经被docker本身给占用了。 * 映射的端口可以使任意的除了 2375 以外的并且是未被占用的端口,但一定不能是 2375 这个端口,因为 2375 已经被 Docker 本身给占用了。
集群启动成功以后现在我们可以在任何一台节点上使用swarm list命令查看集群中的节点了本实验在124这台机器上执行swarm list命令 集群启动成功以后,现在我们可以在任何一台节点上使用 `swarm list` 命令查看集群中的节点了,本实验在 124 这台机器上执行 `swarm list` 命令:
<pre><code> ```sh
rio@124:~$ sudo docker run --rm swarm list token://b7625e5a7a2dc7f8c4faacf2b510078e rio@124:~$ sudo docker run --rm swarm list token://b7625e5a7a2dc7f8c4faacf2b510078e
192.168.1.84:2375 192.168.1.84:2375
192.168.1.124:2375 192.168.1.124:2375
192.168.1.83:2375 192.168.1.83:2375
</code></pre> ```
输出结果列出的IP地址正是我们使用swarm join命令加入集群的机器的IP地址。 输出结果列出的IP地址正是我们使用 `swarm join` 命令加入集群的机器的IP地址。
现在我们可以在任何一台安装了docker的机器上面通过命令(命令中要指明swarm manager机器的IP地址)来在集群中运行container了。
本次试验我们在192.168.1.85这台机器上使用docker info命令来查看集群中的节点的信息。其中info可以换成其他的docker支持的命令。 现在我们可以在任何一台安装了 Docker 的机器上面通过命令(命令中要指明swarm manager机器的IP地址)来在集群中运行container了。
<pre><code> 本次试验,我们在 192.168.1.85 这台机器上使用 `docker info` 命令来查看集群中的节点的信息。
其中 info 也可以换成其他的 Docker 支持的命令。
```sh
rio@085:~$ sudo docker -H 192.168.1.83:2376 info rio@085:~$ sudo docker -H 192.168.1.83:2376 info
Containers: 8 Containers: 8
Strategy: spread Strategy: spread
@ -89,23 +107,23 @@ Nodes: 2
└ Containers: 7 └ Containers: 7
└ Reserved CPUs: 0 / 2 └ Reserved CPUs: 0 / 2
└ Reserved Memory: 0 B / 4.053 GiB └ Reserved Memory: 0 B / 4.053 GiB
</code></pre> ```
结果输出显示这个集群中只有两个节点IP地址分别是192.168.1.83和192.168.1.84结果不对呀我们明明把三台机器加入了这个集群还有124这一台机器呢 结果输出显示这个集群中只有两个节点IP地址分别是 192.168.1.83 192.168.1.84,结果不对呀,我们明明把三台机器加入了这个集群,还有 124 这一台机器呢?
经过排查发现是忘了修改124这台机器上面改docker daemon的监听方式只要按照上面的步骤修改写docker daemon的监听方式就可以了。 经过排查,发现是忘了修改 124 这台机器上面改 docker daemon 的监听方式,只要按照上面的步骤修改写 docker daemon 的监听方式就可以了。
在使用这个方法的时候使用swarm create可能会因为网络的原因会出现类似于下面的这个问题 在使用这个方法的时候使用swarm create可能会因为网络的原因会出现类似于下面的这个问题
<pre><code> ```sh
rio@227:~$ sudo docker run --rm swarm create rio@227:~$ sudo docker run --rm swarm create
[sudo] password for rio: [sudo] password for rio:
time="2015-05-19T12:59:26Z" level=fatal msg="Post https://discovery-stage.hub.docker.com/v1/clusters: dial tcp: i/o timeout" time="2015-05-19T12:59:26Z" level=fatal msg="Post https://discovery-stage.hub.docker.com/v1/clusters: dial tcp: i/o timeout"
</code></pre> ```
第二种方法:使用文件 ### 使用文件
第二种方法相对于第一种方法要简单得多,也不会出现类似于上面的问题。 第二种方法相对于第一种方法要简单得多,也不会出现类似于上面的问题。
第一步:在swarm manager节点上新建一个文件把要加入集群的机器啊IP地址和端口号写入文件中本次试验就是要在83这台机器上面操作 第一步:在 swarm 管理节点上新建一个文件,把要加入集群的机器 IP 地址和端口号写入文件中本次试验就是要在83这台机器上面操作
<pre><code> ```sh
rio@083:~$ echo 192.168.1.83:2375 >> cluster rio@083:~$ echo 192.168.1.83:2375 >> cluster
rio@083:~$ echo 192.168.1.84:2375 >> cluster rio@083:~$ echo 192.168.1.84:2375 >> cluster
rio@083:~$ echo 192.168.1.124:2375 >> cluster rio@083:~$ echo 192.168.1.124:2375 >> cluster
@ -113,25 +131,25 @@ rio@083:~$ cat cluster
192.168.1.83:2375 192.168.1.83:2375
192.168.1.84:2375 192.168.1.84:2375
192.168.1.124:2375 192.168.1.124:2375
</code></pre> ```
第二步在083这台机器上面执行swarm manage这条命令 第二步在083这台机器上面执行 `swarm manage` 这条命令:
<pre><code> ```sh
rio@083:~$ sudo docker run -d -p 2376:2375 -v $(pwd)/cluster:/tmp/cluster swarm manage file:///tmp/cluster rio@083:~$ sudo docker run -d -p 2376:2375 -v $(pwd)/cluster:/tmp/cluster swarm manage file:///tmp/cluster
364af1f25b776f99927b8ae26ca8db5a6fe8ab8cc1e4629a5a68b48951f598ad 364af1f25b776f99927b8ae26ca8db5a6fe8ab8cc1e4629a5a68b48951f598ad
</code></pre> ```
使用docker ps来查看有没有启动成功 使用`docker ps`来查看有没有启动成功:
<pre><code> ```sh
rio@083:~$ sudo docker ps rio@083:~$ sudo docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
364af1f25b77 swarm:latest "/swarm manage file: About a minute ago Up About a minute 0.0.0.0:2376->2375/tcp happy_euclid 364af1f25b77 swarm:latest "/swarm manage file: About a minute ago Up About a minute 0.0.0.0:2376->2375/tcp happy_euclid
</code></pre> ```
可以看到,此时整个集群已经启动成功。 可以看到,此时整个集群已经启动成功。
在使用这条命令的时候需要注意的是注意:这里一定要使用-v命令因为cluster文件是在本机上面启动的容器默认是访问不到的所以要通过-v命令共享。 在使用这条命令的时候需要注意的是注意:这里一定要使用-v命令因为cluster文件是在本机上面启动的容器默认是访问不到的所以要通过-v命令共享。
接下来的就可以在任何一台安装了docker的机器上面通过命令使用集群同样的在85这台机器上执行docker info命令查看集群的节点信息 接下来的就可以在任何一台安装了docker的机器上面通过命令使用集群同样的在85这台机器上执行docker info命令查看集群的节点信息
<pre><code> ```sh
rio@s085:~$ sudo docker -H 192.168.1.83:2376 info rio@s085:~$ sudo docker -H 192.168.1.83:2376 info
Containers: 9 Containers: 9
Strategy: spread Strategy: spread
@ -149,4 +167,4 @@ Nodes: 3
└ Containers: 7 └ Containers: 7
└ Reserved CPUs: 0 / 2 └ Reserved CPUs: 0 / 2
└ Reserved Memory: 0 B / 4.053 GiB └ Reserved Memory: 0 B / 4.053 GiB
</code></pre> ```