Swarm容器集群管理(超详细)

Swarm容器集群管理(超详细),第1张

Swarm容器集群管理(超详细)

一、Swarm介绍

Swarm是Docker公司自研发的容器集群管理系统, Swarm在早期是作为一个独立服务存在, 在Docker Engine v1.12中集成了Swarm的集群管理和编排功能。


可以通过初始化Swarm或加入现有Swarm来启用Docker引擎的Swarm模式。


Docker Engine CLI和API包括了管理Swarm节点命令,比如添加、删除节点,以及在Swarm中部署和编排服务。


也增加了服务栈(Stack)、服务(Service)、任务(Task)概念。



二、Swarm的亮点

参考链接(https://docs.docker.com/engine/swarm/)
1. Docker Engine集成集群管理
使用Docker Engine CLI 创建一个Docker Engine的Swarm模式,在集群中部署应用程序服务。



2. 去中心化设计
Swarm角色分为Manager和Worker节点, Manager节点故障不影响应用使用。



3. 扩容缩容
可以声明每个服务运行的容器数量,通过添加或删除容器数自动调整期望的状态。



4. 期望状态协调
Swarm Manager节点不断监视集群状态,并调整当前状态与期望状态之间的差异。



5. 多主机网络
可以为服务指定overlay网络。


当初始化或更新应用程序时, Swarm manager会自动为overlay网络上的容器分配IP地址。



6. 服务发现
Swarm manager节点为集群中的每个服务分配唯一的DNS记录和负载均衡VIP。


可以通过Swarm内置的DNS服务器查询集群中每个运行的容器。



7. 负载均衡
实现服务副本负载均衡,提供入口访问。



8. 安全传输
Swarm中的每个节点使用TLS相互验证和加密, 确保安全的其他节点通信。



9. 滚动更新
升级时,逐步将应用服务更新到节点,如果出现问题,可以将任务回滚到先前版本。



三、swarm关键概念

参考链接:https://docs.docker.com/engine/swarm/key-concepts/

1、什么是swarm?

集群管理和任务编排功能已经集成到了Docker引擎中,通过使用swarmkit。


swarmkit是一个独立的,专门用于Docker容器编排的项目,可以直接在Docker上使用。


Swarm集群是由多个运行swarm模式的Docker主机组成,关键的是,Docker默认集成了swarm mode。


swarm集群中有manager(管理成员关系和选举)、worker(运行swarm service)。


一个Docker主机可以是manager,也可以是worker角色,当然,也可以既是manager,同时也是worker。


当你创建一个service时,你定义了它的理想状态(副本数、网络、存储资源、对外暴露的端口等)。


Docker会维持它的状态,例如,如果一个worker node不可用了,Docker会调度不可用node的task到其他nodes上。


运行在容器中的一个task,是swarm service的一部分,且通过swarm manager进行管理和调度,和独立的容器是截然不同的。


swarm service相比单容器的一个最大优势就是,你能够修改一个服务的配置:包括网络、数据卷,不需要手工重启服务。


Docker将会更新配置,把过期配置的task停掉,重新创建一个新配置的容器。


当然,也许你会觉得docker compose也能做swarm类似的事情,某些场景下是可以。


但是,swarm相比docker compose,功能更加丰富,比如说自动扩容、缩容,分配至task到不同的nodes等。


2、nodes

一个node是Swarm集群中的一个Docker引擎实例。


你也可以认为这就是一个docker节点。


你可以运行一个或多个节点在单台物理机或云服务器上,但是生产环境上,典型的部署方式是:Docker节点交叉分布式部署在多台物理机或云主机上。


通过swarm部署一个应用,你向manager节点提交一个service,然后manager节点分发工作(task)给worker node。


manager节点同时也会容器编排和集群管理功能,它会选举出一个leader来指挥编排任务。


worker nodes接受和执行从manager分发过来的task。


一般地,manager节点同时也是worker节点,但是,你也可以将manager节点配置成只进行管理的功能。


Agent则运行在每个worker节点上,时刻等待着接受任务。


worker node会上报manager node,分配给他的任务当前状态,这样manager node才能维持每个worker的工作状态。


3、services和tasks

service就是在manager或woker节点上定义的tasks。


service是swarm系统最核心的架构,同时也是和swarm最主要的交互者。


当你创建一个service,你指定容器镜像以及在容器内部运行的命令。


在副本集模式下,swarm manager将会基于你需要扩容的需求,把task分发到各个节点。


对于全局service,swarm会在每个可用节点上运行一个task。


task携带Docker引擎和一组命令让其运行在容器中。


它是swarm的原子调度单元。


manager节点在扩容的时候回交叉分配task到各个节点上,一旦一个task分配到一个node,它就不能移动到其他node。


4、负载均衡

swarm manager使用 ingress负载均衡来暴露你需要让外部访问的服务。


swarm manager能够自动的分配一个外部端口到service,当然,你也能够配置一个外部端口,你可以指定任意没有使用的port,如果你不指定端口,那么swarm manager会给service指定30000-32767之间任意一个端口。


swarn模式有一个内部的DNS组件,它能够自动分发每个服务在swarm里面。


swarm manager使用内部负载均衡机制来接受集群中节点的请求,基于DNS名字解析来实现。



四、Swarm架构图

Swarm manager:

1、API:接受命令,创建一个service(API输入)

2、orchestrator:service对象创建的task进行编排工作(编排)

3、allocater:为各个task分配IP地址(分配IP)

4、dispatcher:将task分发到nodes(分发任务)

5、scheduler:安排一个worker运行task(运行任务)

worker node

1、连接到分发器接受指定的task

2、将task指派到对应的worker节点

例子:

swarm manager创建一个3个nginx副本集的service,他会将task分配到对应的node。



五、swarm集群部署 安装需求

1、主机安装了docker,Docker Engine 1.12+

2、关闭selinux、关闭防火墙(或者按照下面需要打开的端口开放防火墙)

3、协议端口开放

  • TCP port 2377 集群管理通讯
  • TCP and UDP port 7946 节点之间通讯
  • UDP port 4789 overlay网络流量
机器分布 角色 IP Docker版本 manager 10.11.97.71 18.09.7 worker01 10.11.97.181 18.09.7 worker02 10.11.97.187 18.09.7 部署swarm

manager节点:

docker swarm init --advertise-addr 10.11.97.71

  

日志查看:

[root@localhost ~]# docker swarm init --advertise-addr 10.11.97.71
Swarm initialized: current node (nnkbd7e2emx24ymnzyvxv7h2b) is now a manager. To add a worker to this swarm, run the following command: docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377 To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions. [root@localhost ~]#

  

worker01节点加入集群:

[root@worker01 compose_nginx_tomcat]# docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377
This node joined a swarm as a worker.
[root@localhost compose_nginx_tomcat]#

  

worker02节点加入集群:

[root@worker02 ~]# docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377
This node joined a swarm as a worker.
[root@localhost ~]#

  

查看node状态:

部署一个服务

docker service create --replicas 1 --name helloworld alpine ping docker.com

--replicas 副本集数

--name  服务名称

查看服务

当前服务运行在manager上。


 

  


六、swarm集群服务管理 1、创建服务

docker service create --replicas 1 --name web01 nginx

2、显示服务详细信息

docker service inspect --pretty web01# 易于阅读显示

docker service inspect web01# json格式返回

3、扩容和缩容

docker service scale web01=3

4、查看服务任务

docker service ls(查看所有service)

docker service ps web01(查看web01)

每个node上分布了1个容器。


docker service ps -f 'desired-state=running' web01(查看运行状态的service)

5、滚动更新服务

docker service create \
--replicas 3 \
--name redis \
--update-delay 10s \
redis:3.0.6

docker service update --image redis:3.0.7 redis

6、创建服务时设定更新策略

docker service create \
--name my_web
--replicas 10 \
--update-delay 10s \
--update-parallelism 2 \
--update-failure-action continue \
nginx:1.12

7、创建服务时设定回滚策略

docker service create \
--name my_web \
--replicas 10 \
--rollback-parallelism 2 \
--rollback-monitor 20s \
--rollback-max-failure-ratio .2 \
nginx:1.12

8、服务更新

docker service update --image nginx:1.13 my_web

9、手动回滚

docker service update --rollback my_web

10、角色切换

升级前:

升级:

停掉manager

systemctl stop docker

将worker02升级

docker node promote worker02

升级后:


七、swarm集群数据管理 1、volume方式管理数据

volume模式:在宿主机上创建一个volume,默认目录为(/var/lib/docker/volume/your_custom_volume/_data),然后把容器的某个目录映射到宿主机的volume上,即使容器挂了,数据还会依然保留在宿主机的volume上。


docker service create --replicas 1--mount type=volume,src=nginx^Cata,dst=/usr/share/nginx/html --name www_web01 nginx:1.12

  

查看服务

docker service inspect www_web01

服务ID

服务版本

服务创建时间

服务更新时间

服务详细配置

  服务名称

  服务标签

  服务的容器配置

    镜像名称

    挂载点

    资源限制

    重启策略

    更新配置

    回滚配置

    挂载点配置

  

[
{
"ID": "7ge7vfprynybyvz9otwomzumv",
"Version": {
"Index": 313
},
"CreatedAt": "2019-07-20T04:16:41.677166218Z",
"UpdatedAt": "2019-07-20T04:16:41.677166218Z",
"Spec": {
"Name": "www_web01",
"Labels": {},
"TaskTemplate": {
"ContainerSpec": {
"Image": "nginx:1.12@sha256:72daaf46f11cc753c4eab981cbf869919bd1fee3d2170a2adeac12400f494728",
"Init": false,
"Mounts": [
{
"Type": "volume",
"Source": "nginx_data",
"Target": "/usr/share/nginx/html"
}
],
"StopGracePeriod": 10000000000,
"DNSConfig": {},
"Isolation": "default"
},
"Resources": {
"Limits": {},
"Reservations": {}
},
"RestartPolicy": {
"Condition": "any",
"Delay": 5000000000,
"MaxAttempts": 0
},
"Placement": {
"Platforms": [
{
"Architecture": "amd64",
"OS": "linux"
},
{
"OS": "linux"
},
{
"Architecture": "arm64",
"OS": "linux"
},
{
"Architecture": "386",
"OS": "linux"
},
{
"Architecture": "ppc64le",
"OS": "linux"
},
{
"Architecture": "s390x",
"OS": "linux"
}
]
},
"ForceUpdate": 0,
"Runtime": "container"
},
"Mode": {
"Replicated": {
"Replicas": 1
}
},
"UpdateConfig": {
"Parallelism": 1,
"FailureAction": "pause",
"Monitor": 5000000000,
"MaxFailureRatio": 0,
"Order": "stop-first"
},
"RollbackConfig": {
"Parallelism": 1,
"FailureAction": "pause",
"Monitor": 5000000000,
"MaxFailureRatio": 0,
"Order": "stop-first"
},
"EndpointSpec": {
"Mode": "vip"
}
},
"Endpoint": {
"Spec": {}
}
}
]

  

查看数据卷

因为我硬盘的数据盘在/data,所以我这里已经把docker的Root Dir设置成/data/docker/,可以看到容器里面的nginx数据目录已经挂在到宿主机的nginx_data了。


2、bind mount方式管理数据

bind mount模式:将宿主机某个目录映射到docker容器,很适合于网站,同时把宿主机的这个目录作为git版本目录,每次update代码的时候,容器就会更新。


创建数据目录

在mananger、worker01、worker02上创建web网站目录:

mkdir -p /data/wwwroot

创建服务

docker service create --replicas 1--mount type=bind,src=/data/wwwroot,dst=/usr/share/nginx/html --name www_web02 nginx:1.12

查看服务

运行在worker02

测试宿主机的数据盘和容器是映射关系:

进入容器查看内容:

可以看到我们在宿主机上创建的index.html已经挂在到容器上了!

3、NFS方式管理数据

前面两种方式都是单机docker上数据共享方式,要是在集群中,这个就不适用了,我们必须使用共享存储或网络存储了。


这里我们使用NFS来测试。


安装NFS服务

我们使用第三台(worker02作为NFS服务提供者)

yum install nfs-utils -y

并且在nfs目录放入网站数据内容:

[root@worker02 container_data]# echo 'hello nfs' >index.html

其他两个节点(worker01和manager均需要安装nfs客户端)

创建服务

docker service create \
--mount 'type=volume,src=nfs-vol,dst=/usr/share/nginx/html, \
volume-driver=local,volume-opt=type=nfs,\
volume-opt=device=:/data/container_data,"volume-opt=o=addr=10.11.97.187,vers=4,soft,timeo=180,bg,tcp,rw"' \
--name www_web03_nfs nginx:1.12

swarm支持挂在NFS卷。


可以查看到nfs已经挂在到manager节点了,且nfs里面的内容也在。


进入容器查看:


八、swarm集群发布 架构图

服务发现: Swarm模式内置DNS组件,自动为每个服务分配DNS记录,然后服务的DNS名称在集群内的服务直接分发请求。



负载均衡:在Swarm集群中创建服务时, Ingress网络会自动为其分配一个虚拟IP(VIP),在DNS解析时返回VIP,流入该VIP的流量将自动发送(IPVS)该服务的所以健康任
务(容器)。


在每个节点上创建服务,使用ingress暴露publish port:

docker service create --replicas=3 --name web01 -p 88:80 nginx:1.12

可以看到每个node上各分部了一个容器:

这时你直接访问:http://10.11.97.71:88就可以访问网站了。


注意:

如果你关掉某个节点上web01的服务,swarm会再次启动一个服务,以达到原来task的个数。


在真实环境中,我们可以在swarm集群中的每个节点启动指定个数的tasks,然后在前端使用负载均衡设备,比如HA或Nginx都行,直接通过负载均衡的方式做到高可用。


查看service

docker service inspect web01

[
{
"ID": "ii7ggbrqfsl417oqs9xgr877q", #ID
"Version": { #版本
"Index": 753
},
"CreatedAt": "2019-07-20T15:12:36.035445496Z", #创建时间
"UpdatedAt": "2019-07-20T15:12:36.037336323Z", #更新时间
"Spec": { #详细配置
"Name": "web01", #服务名称
"Labels": {},
"TaskTemplate": {
"ContainerSpec": { #容器配置
"Image": "nginx:1.12@sha256:72daaf46f11cc753c4eab981cbf869919bd1fee3d2170a2adeac12400f494728",
"Init": false,
"StopGracePeriod": 10000000000,
"DNSConfig": {},
"Isolation": "default"
},
"Resources": { #资源限制
"Limits": {},
"Reservations": {}
},
"RestartPolicy": { #重启策略
"Condition": "any",
"Delay": 5000000000,
"MaxAttempts": 0
},
"Placement": { #平台相关
"Platforms": [
{
"Architecture": "amd64",
"OS": "linux"
},
{
"OS": "linux"
},
{
"Architecture": "arm64",
"OS": "linux"
},
{
"Architecture": "386",
"OS": "linux"
},
{
"Architecture": "ppc64le",
"OS": "linux"
},
{
"Architecture": "s390x",
"OS": "linux"
}
]
},
"ForceUpdate": 0,
"Runtime": "container"
},
"Mode": { #模式
"Replicated": {
"Replicas": 3
}
},
"UpdateConfig": { #更新配置
"Parallelism": 1,
"FailureAction": "pause",
"Monitor": 5000000000,
"MaxFailureRatio": 0,
"Order": "stop-first"
},
"RollbackConfig": { #回滚配置
"Parallelism": 1,
"FailureAction": "pause",
"Monitor": 5000000000,
"MaxFailureRatio": 0,
"Order": "stop-first"
},
"EndpointSpec": { #终端配置
"Mode": "vip",
"Ports": [
{
"Protocol": "tcp",
"TargetPort": 80,
"PublishedPort": 88,
"PublishMode": "ingress"
}
]
}
},
"Endpoint": { #终端,VIP模式,对外暴露88端口,ingress模式
"Spec": {
"Mode": "vip",
"Ports": [
{
"Protocol": "tcp",
"TargetPort": 80,
"PublishedPort": 88,
"PublishMode": "ingress"
}
]
},
"Ports": [
{
"Protocol": "tcp",
"TargetPort": 80,
"PublishedPort": 88,
"PublishMode": "ingress"
}
],
"VirtualIPs": [ #虚拟出了一个网段
{
"NetworkID": "gd7sc5a8ke68zxzf9s7kz5mey",
"Addr": "10.255.0.7/16"
}
]
}
}
]

  

查看network

[root@manager ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
13e5011b8fa7 bridge bridge local
1330304716df docker_gwbridge bridge local
95f6edd3f2ec host host local
gd7sc5a8ke68 ingress overlay swarm
57781759f937 none null local

  

查看ingress网络

[root@manager ~]# docker network inspect gd7
[
{
"Name": "ingress",
"Id": "gd7sc5a8ke68zxzf9s7kz5mey",
"Created": "2019-07-18T17:17:43.808865817+08:00",
"Scope": "swarm",
"Driver": "overlay",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": null,
"Config": [
{
"Subnet": "10.255.0.0/16",
"Gateway": "10.255.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": true,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {
"b4f5c5977de9248e4834f91f6a0bd54c438ad4c051cc9fef3537a726f2f64b49": {
"Name": "web01.1.p9mhq9xrb35bwscrv23pgmimy",
"EndpointID": "28b1e5fc0bef0e2b6ec812870c03962cf534e3f9f65646f507b6462da0a7eb58",
"MacAddress": "02:42:0a:ff:00:0b",
"IPv4Address": "10.255.0.11/16",
"IPv6Address": ""
},
"e4d6ace7511ac6ee24c6a3c3170749c8f08cbced6e86c2e4e1524e573db31418": {
"Name": "web01.3.j1ev4hq7mjwyyy59e0l0g2qjy",
"EndpointID": "6f9f9d2a61a3bb2424f7354dfd5a8e3e421734529fe626b4e263d2093078b285",
"MacAddress": "02:42:0a:ff:00:0a",
"IPv4Address": "10.255.0.10/16",
"IPv6Address": ""
},
"ingress-sbox": {
"Name": "ingress-endpoint",
"EndpointID": "2433360215c02637627f3f2cb8bada006b1837fa4aa551d1dffa6f2efe93987b",
"MacAddress": "02:42:0a:ff:00:02",
"IPv4Address": "10.255.0.2/16",
"IPv6Address": ""
}
},
"Options": {
"com.docker.network.driver.overlay.vxlanid_list": "4096"
},
"Labels": {},
"Peers": [
{
"Name": "5751b4f046eb",
"IP": "10.11.97.71"
},
{
"Name": "e3f5cc62948d",
"IP": "10.11.97.187"
},
{
"Name": "e9531b469fd9",
"IP": "10.11.97.181"
}
]
}
]

  可以看出ingress,模拟出了一个vxlan,驱动类型为overlay,网段为:10.255.0.0/16,网关为10.255.0.1,vxlan有4096个接口。


九、swarm集群高可用架构实现 HAPorxy实现高可用

Nginx反向代理实现高可用

十、Swarm配置文件管理

1、 生成一个基本的Nginx配置文件
# cat site.conf

server {

  listen 80;

  server_name localhost;

location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
}

2、 将site.conf保存到docker配置中

# docker config create site.conf site.conf
# docker config ls


3、 创建一个Nginx并应用这个配置
# docker service create \
--name nginx \
--config source=site.conf,target=/etc/nginx/conf.d/site.conf \
--publish 8080:80 \
nginx


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/586526.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-12
下一篇 2022-04-12

发表评论

登录后才能评论

评论列表(0条)

保存