1.使用Haproxy来负载平衡用户对后端web服务器的请求,并检查健康状态。
2.使用具有高可用性的keepalivedHaproxy来避免LVS单点故障
3.分别在集群中的HK-01和HK-02运行一个VIP地址,实现Haproxy的双主。
4.用户可以通过DNS轮转训练实现访问集群的负载均衡(无演示)
实验拓扑环境介绍:
IP地址
功能描述
172.16.4.100
用户将请求安排到后端web服务器,并使用HK-02进行备份。
HK-02172.16.4.101
用户将请求安排到后端web服务器,并使用HK-01进行备份。
WEB-01172.16.4.102
提供网络服务
WEB-02172.16.4.103
提供网络服务
DNS172.16.4.10
实现DNS轮转训练,解析用户请求的域名地址。
VIP1172.16.4.1
用户访问集群的入口地址可能在HK-01或HK-02中。
VIP2172.16.4.2
用户访问集群的入口地址可能在HK-01或HK-02中。
配置示例 后端WEB服务器配置 WEB服务器的配置极其简单。您只需要提供一个测试页面来启动web服务。配置如下:Web-01配置
[root@WEB-01 ~]# echo "web-01" >/var/www/html/index.html [root@WEB-01 ~]# service httpd start Web-02配置 [root@WEB-02 ~]# echo "web-02" >/var/www/html/index.html [root@WEB-02 ~]# service httpd startHaproxy访问后端web服务器,并验证web服务是否成功提供。
[root@HK-01 ~]# curl 172.16.4.102 web-01 [root@HK-01 ~]# curl 172.16.4.103 web-02出现的页面表明web服务正常。
Haproxy+keepalived配置Haproxy和keepalived安装在两个HK节点中。
[root@HK-01 ~]# yum -y install haproxy [root@HK-02 ~]# yum -y install haproxy [root@HK-01 ~]# yum -y install keepalived [root@HK-02 ~]# yum -y install keepalived修改内核参数设置,设置haproxy启动有无vip地址。
[root@HK-01 ~]# echo"net.ipv4.ip_nonlocal_bind = 1" >> /etc/sysctl.conf [root@HK-01 ~]# sysctl –p [root@HK-02 ~]# echo "net.ipv4.ip_nonlocal_bind= 1" >> /etc/sysctl.conf [root@HK-02 ~]# sysctl -p该选项是集群中的关键选项,否则当VIP地址不在Haproxy服务器中时,服务器无法正常启动
Haproxy需要配置两个实例监听两个VIP地址,两个实例都要将用户的请求负载均衡转发到后端web服务器,这样用户无论访问哪个节点都可以实现负载均衡。
两个haproxy节点的配置文件完全相同,所以只发布一个。
[root@HK-01 ~]# vim /etc/haproxy/haproxy.cfg global log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon statssocket /var/lib/haproxy/stats defaults mode http log global option httplog option dontlognull optionhttp-server-close optionforwardfor except 127.0.0.0/8 option redispatch retries 3 timeouthttp-request 10s timeoutqueue 1m timeoutconnect 10s timeoutclient 1m timeoutserver 1m timeouthttp-keep-alive 10s timeoutcheck 10s maxconn 3000 stats enable #启用Haproxy的状态页面 statsuri /admin?stats #设置Haproxy状态页面的访问URL statsauth proxy:proxy #设置访问Haproxy状态页面的用户名和密码 listen www1 #定义一个实例 bind172.16.4.1:80 #监听地址为VIP地址 mode tcp #设置转发模式为TCP option forwardfor #允许在发往服务器的请求首部中插入“X-Forwarded-For”首部 server www01 172.16.4.102:80 check #定义后端服务器的,并启用健康检查 server www02 172.16.4.103:80 check listen www2 #定义第二个实例 bind172.16.4.2:80 #除了绑定的VIP地址和第一个实例不同之外,其他均相同 mode tcp option forwardfor server www01 172.16.4.102:80 check server www01 172.16.4.103:80 check Haproxy的配置就是安装,修改配置文件,设置完成之后只要启动Haproxy就可以正常提供服务了 keepalived设置HK-01配置
[root@HK-01 ~]# vim /etc/keepalived/keepalived.conf global_defs { router_idLVS_DEVEL } vrrp_script chk_mt_down { script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0" #定义一个脚本,判断down文件是否存在,存在就退出执行,不存在继续执行 interval 1 #1秒检测一次 weight -5 #优先级减五 } vrrp_instance VI_1 { #定义VRRP热备实例 state MASTER #MASTER表示主节点 interfaceeth0 #承载VIP地址的物理接口 virtual_router_id 51 #虚拟路由器的ID号 priority100 #优先级,数值越高优先级越大 advert_int 1 #通知间隔秒数(心跳频率) authentication { #认证信息配置 auth_type PASS #设置认证类型为密码 auth_pass asdfgh #设置认证的密码 } virtual_ipaddress { #指定漂移地址 172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0 } track_script { chk_mt_down #调用上面定义的脚本,如果这里没有调用,那么上面定义的脚本是无法生效的 } } vrrp_instance VI_2 { #定义实例为HK-02的备份节点 stateBACKUP #BACKUP表示备份节点 interfaceeth0 virtual_router_id 52 priority99 #优先级,低于主服务器 advert_int 1 authentication { auth_type PASS auth_pass qwerty } virtual_ipaddress { 172.16.4.2 } track_script { chk_mt_down } }HK-02的配置与HK-01基本相同,只是主备设置不同。
[root@HK-02 ~]# vim /etc/keepalived/keepalived.conf global_defs { router_idLVS_DEVEL } vrrp_script chk_mt_down { script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0" interval 1 weight -5 } vrrp_instance VI_1 { state BACKUP interfaceeth 0 virtual_router_id 51 priority 99 advert_int 1 authentication { auth_type PASS auth_pass asdfgh } virtual_ipaddress { 172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0 } track_script { chk_mt_down } } vrrp_instance VI_2 { stateMASTER interfaceeth0 virtual_router_id 52 priority100 advert_int 1 authentication { auth_type PASS auth_pass qwerty } virtual_ipaddress { 172.16.4.2 } track_script { chk_mt_down } }设置完成后,两个节点分别启动haproxy和keepalived服务,集群配置完成。
[root@HK-01 ~]# service haproxy start [root@HK-01 ~]# service keepalived start [root@HK-02 ~]# service haproxy start [root@HK-02 ~]# service keepalived start 验证访问状态页面、www1和www2示例都显示正常。
VIP地址也开始分别到两个节点,实现双主。
[root@HK-01 ~]# ip addr show dev eth0 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ff inet172.16.4.100/16 brd 172.16.255.255 scope global eth0 inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0 #VIP地址正常启动 inet6fe80::20c:29ff:fe22:c5c2/64 scope link valid_lft forever preferred_lft forever [root@HK-02 ~]# ip addr show dev eth0 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:0c:29:f1:dd:b2 brd ff:ff:ff:ff:ff:ff inet172.16.4.101/16 brd 172.16.255.255 scope global eth0 inet172.16.4.2/32 scope global eth0 #VIP地址正常启动 inet6fe80::20c:29ff:fef1:ddb2/64 scope link valid_lft forever preferred_lft forever 负载均衡测试分别访问两个vip地址达到负载均衡的效果。
[root@localhost ~]# curl 172.16.4.1 web-02 [root@localhost ~]# curl 172.16.4.1 web-01 [root@localhost ~]# curl 172.16.4.2 web-01 [root@localhost ~]# curl 172.16.4.2 web-02 高可用验证手动关闭HK-02,验证vip地址是否会自动漂移到HK-01服务器。
[root@HK-02 ~]# touch /etc/keepalived/down两个vip地址都正常漂移到HK-02。
[root@HK-01 ~]# ip addr show dev eth0 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ff inet172.16.4.100/16 brd 172.16.255.255 scope global eth0 inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0 inet172.16.4.2/32 scope global eth0 #HK-02的VIP地址已经漂移过来了 inet6fe80::20c:29ff:fe22:c5c2/64 scope link valid_lft forever preferred_lft forever 健康状态检测验证手动关闭web-02,查看web-02是否会自动脱机。
[root@WEB-02 ~]# service httpd stop查看网页状态页面,WEB-02已经自动离线。
验证计划请求不会被转发到web-02。
[root@localhost ~]# curl 172.16.4.1 web-01 [root@localhost ~]# curl 172.16.4.1 web-01 [root@localhost ~]# curl 172.16.4.2 web-01 [root@localhost ~]# curl 172.16.4.2 web-01欢迎分享,转载请注明来源:内存溢出
评论列表(0条)