Web服务Haproxy 集群
一.Haproxy 集群二.Haproxy集群特性三. LVS、Nainx、Haproxy 的区别四.Haproxy集群的构建
(1)Haproxy集群的构建的步骤(理论)(2)Haproxy集群的构建的具体 *** 作步骤(实 *** ) 五.Haproxy 集群的 日志重新定义
(1)Haproxy集群的日志重新定义(实 *** )
Web服务Haproxy 集群 一.Haproxy 集群Haproxy 是一个使用 C 语言编写的自由及开放源代码软件,其提供高可用性、负载均衡,以及基于 TCP 和 HTTP 的应用程序代理。
二.Haproxy集群特性可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;支持多达8种负载均衡算法,同时也支持会话保持;支持虚机主机功能,从而实现web负载均衡更加灵活;支持连接拒绝、全透明代理等独特的功能;拥有强大的ACL支持,用于访问控制;其独特的d性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;支持TCP加速,零复制功能,类似于mmap机制;支持响应池 (response buffering);支持RDP协议;基于源的粘性,类似nginx的ip hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态, 并提供了一定的管理功能;基于流量的健康评估机制;基于http认证;基于命令行的管理接口;日志分析器,可对日志进行分析 三. LVS、Nainx、Haproxy 的区别
LVS基于Linux *** 作系统实现软负载均衡,而 HAProxy 和 Nginx 是基于第三方应用实现的软负载均衡;LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL 的转发。而 HAProxy 和 Nainx 都可以实现4层和7层技术,HAProxy 可提供 TCP 和HTTP应用的负载均衡综合解决方案;LVS因为工作在ISO模型的第四层,其状态监测功能单一, 而HAProxy在状监测方面功能更丰富、强大, 可支持端口、URL、脚本等多种状态检测方式;HAProxy 功能强大,但整体性能低于4层模式的LVS 负载均衡。Nginx 主要用干 Web 服务器或缓存服务器。
负载均衡策略
准备工作:
Haproxy服务器:192.168.80.30
Nginx 服务器1:192.168.80.10
Nginx 服务器2:192.168.80.20
客户端:192.168.80.200
1.关闭防火墙,将安装Haproxy所需软件包传到/opt目录下
1 systemctl stop firewalld 2 setenforce 0 3 4 haproxy-1.5.19.tar.gz
2.编译安装 Haproxy
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make tar zxvf haproxy-1.5.19.tar.gz cd haproxy-1.5.19/ make TARGET=linux2628 ARCH=x86_64 make install
3.Haproxy 服务器配置
mkdir /etc/haproxy cp examples/haproxy.cfg /etc/haproxy/ cd /etc/haproxy/ vim haproxy.cfg
global --4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志 log /dev/log local0 info log /dev/log local0 notice #log loghost local0 info maxconn 4096 #最大连接数,需考虑ulimit -n限制 --8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉 #chroot /usr/share/haproxy uid 99 #用户UID gid 99 #用户GID daemon #守护进程模式 defaults log global #定义日志为global配置中的日志定义 mode http #模式为http option httplog #采用http日志格式记录日志 option dontlognull #不记录健康检查日志信息 retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用 redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接 maxconn 2000 #最大连接数 contimeout 5000 #连接超时时间 clitimeout 50000 #客户端超时时间 srvtimeout 50000 #服务器超时时间 --删除下面所有listen项--,添加 listen webcluster 0.0.0.0:80 #定义一个名为webcluster的应用 option httpchk GET /test.html #检查服务器的test.html文件 balance roundrobin #负载均衡调度算法使用轮询算法roundrobin server inst1 192.168.80.10:80 check inter 2000 fall 3 #定义在线节点 server inst2 192.168.80.20:80 check inter 2000 fall 3
4.添加 haproxy 系统服务
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy cd /etc/init.d chmod +x haproxy chkconfig --add /etc/init.d/haproxy ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy service haproxy start 或 /etc/init.d/haproxy start
5.节点服务器部署
systemctl stop firewalld setenforce 0 yum install -y pcre-devel zlib-devel gcc gcc-c++ make useradd -M -s /sbin/nologin nginx cd /opt tar zxvf nginx-1.12.0.tar.gz -C /opt/ cd nginx-1.12.0/ ./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make && make install make && make install --192.168.153.60--- echo "this is accp web" > /usr/local/nginx/html/test.html --192.168.153.70--- echo "this is benet web" > /usr/local/nginx/html/test.html ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/ nginx #启动nginx 服务
6.测试 Web群集
在客户端使用浏览器打开 http://192.168.153.50/test.html ,不断刷新浏览器测试负载均衡效果
(2)Haproxy集群的构建的具体 *** 作步骤(实 *** )实验环境搭建:
web1相关设置如下:
web2相关设置如下:
Haproxy服务器配置如下:
客户端配置如下:
将Haproxy服务器、web1服务器 和web2服务器防火墙和SElinux关闭
第一步:配置web1和web2服务器(除test.html文件的内容不一样,其他都步骤都一致)
1)安装Nginx服务器1和2,我这边使用源码安装,然后添加网页显示内容。
2)浏览器中查看网页显示内容
第二步:haproxy 服务器部署
1)放入安装包
2)安装相关依赖包
3)解压Haproxy安装包
4)编译安装
5)在/etc下创建Haproxy目录并将/opt内的Haproxy复制过去
6)修改主配置文件haproxy.cfg
7)添加haproxy 系统服务
第三步:在客户端中进行访问测试
五.Haproxy 集群的 日志重新定义#默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。 需要将haproxy的info及notice日志分别记录到不同的日志文件中。 vim /etc/haproxy/haproxy.cfg global log /dev/log local0 info log /dev/log local0 notice service haproxy restart
#需要修改rsyslog配置,为了便于管理。 将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。 vim /etc/rsyslog.d/haproxy.conf if ($programname == 'haproxy' and $syslogseverity-text == 'info') then -/var/log/haproxy/haproxy-info.log &~ if ($programname == 'haproxy' and $syslogseverity-text == 'notice') then -/var/log/haproxy/haproxy-notice.log &~
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。 “&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。 mkdir /var/log/haproxy/ systemctl restart rsyslog.service tail -f /var/log/haproxy/haproxy-info.log #查看haproxy的访问请求日志信息(1)Haproxy集群的日志重新定义(实 *** )
第一步:确认默认haproxy的日志
第二步:修改rsyslog配置
第三步:创建/var/log/haproxy/目录并重启服务
第四步:在浏览器中重新访问后,测试日志生成
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)