风景
随着业务的发展,网站会议的数量越来越多。网站会议数量从原来的1000QPS变成了3000QPS。网站不堪重负,反应迟钝。面对这种情况,仅仅通过单一的LNMP架构不可能启动更多的用户会议。这时候就要平衡回载,停止网站扩容,处理启动结果。横向扩展?扩大规模?
手工澄清
集群技术是一种相对较新的技术。通过集群技术的过程,我们可以以较低的成本在功能、可靠性和灵敏度方面获得相对较低的收益,其任务调整是集群系统中的核心技术。
集群是一组相互独立并通过低速收集过程相互连接的计算机。它们形成一个群体,它们以单一系统的形式被还原。当客户使用集群相互交互时,集群就像一个独立的服务器。
集群形成后,可以 *** 纵多个计算机战群启动和停止海量恳求和处置(后负载均衡),以获得低处置依从性,也可以使用多台计算机进行备份(停机可用),使任何一台机器发生故障,整个系统都能正常运行。如今是互联网公司必备的技术,大大提高了互联网业务的可用性和可扩展性。
承载平衡与分散技术
负载平衡(LB)LB集群为企业满足其需求和供应能力提供了一个有用的方案。反向负载平衡集群使反向负载尽可能均匀地分布在计算机集群中。
回灌通常包括用法式方法处理回灌和收集回流回灌。这样的系统非常适合于通过使用统一的组向大量用户提供服务。每个节点都可以承担必要的回载处理,并能真正处理回载在节点间的静态分布,从而真正实现回载平衡。关于收集流量负载,当收集服务方法承载了下行的网络流量,导致无法快速处置时,那么收集流量就会被收集到运行在其他节点上的收集服务方法。还可以根据服务器的启动和负载能力停止服务请求的收集,帮助用户的请求得到更快的处理。
承载平衡和散射技术
负载平衡
背装平衡工艺示例:基于4层背装平衡工艺和7层背装平衡工艺。
背面负载均衡方法:硬件背面负载均衡设备大致就是硬件背面负载均衡。
硬件平衡产品:F5BIG-IP、CitrixNetscaler、强项、阵列、Radware
硬件平衡产品:LVS(Linux虚拟服务器)、Haproxy、Nginx、Ats(apache流量服务器)
运载平衡艇演示图
Lvs是一种真正的负载均衡技术。下面介绍一下lvs。
什么是LVS?
LVS是Linux虚拟服务器的缩写,即Linux虚拟服务器。是张发起的一个自成体系的硬件项目,其人圈是。LVS曾经是Linux内核的一部分。在Linux2.4内核之前,使用LVS时,需要从头编译内核来支持LVS功能模块。但是从Linux2.4内核开始,LVS的所有功能模块都已经完全内置,所以不需要对内核做任何补丁就可以间接使用LVS提供的各种功能。
自1998年以来,LVS一直是一个有竞争力的工艺项目。能够 *** 作LVS技术,如WWW服务、缓存服务、DNS服务、FTP服务、邮件服务、视频/音频广播服务等。,有许多著名的网站和机构正在使用LVS来建立集群系统。比如:Linux流派网(www.linux.com),以提供基于RealPlayer的音视频服务而闻名的RealCompany(www.real.com),邱琦最大的开源网站(sourceforge.net)。
LVS硬件的使用:LVS在此过程中提供的后台负载均衡技术和Linux *** 作系统,真正体现了低功能、低可用性服务器的聚合,具有出色的可靠性、可扩展性和可 *** 作性。从而以昂贵的资金实现最差的服务功能。
LVS特色
连接:LVS基于内核集合层的东西,具有超强的启动和加载能力。一个LVS负载均衡器可以支持数万个负载均衡器,并且可以相互连接。强不变性:四楼正在收集东西,只用于分发。那个特性也决定了它的功能最强,不变性最好,对内存和cpu的资本消耗极低。
价格昂贵:硬件后装平衡器从几十万到几十万上百万不等,LVS只需一台服务器即可免费安排使用,性价比极高。
简单设置:LVS设置非常简单,只需几个止损单就可以完成,也可以写成脚本停止处理。
支持多种算法:支持多种论证算法,根据业务场景的敏感分布停止使用。
支持多种事物:根据业务场景,可以用不同的事物应对消费情况,求结果。
使用范围广:因为LVS在4楼,所以几乎可以平衡所有的使用,包括http、数据库、DNS、ftp等等。
缺陷:东西在4楼,不支持7楼划界规则修正。机器太宏大,不适合小规模使用。
LVS活动流程图
LVS事物核模型
1.当客户的整个请求到达后负载均衡器的内核空时,尾部会先到达预路由链。
2.当内核发明目的地是本地机器的请求数据包时,它将数据包接收到输入链。
3.LVS是由ipvsadm战斗核心之间的IPVS空用户之间的空组成的。ipvsadm使用定义来定义规则,而IPVS *** 作由ipvsadm定义的规则。IPVS在投入链上。当数据包到达输入链时,尾部将首先由IPVS检查。如果数据分组内的目标位置和末端中心具有正在定义的规则,
4.如果数据包中的目的地和末端中心正在定义规则,那么数据包的目的地将被更正为预先定义的后端服务器,并被发送到POSTROUTING链。
5.未来服务器最初是通过后路由链接收的。
LVS反向负载平衡NAT业务流程
(一)。当用户向Director服务器请求时,请求的数据消息将首先到达内核空之间的预路由链。此时,消息的源IP是CIP,目的IP是VIP。
(二)。预路由检查所发明的数据分组的目的地IP是本地机器,并将数据分组接收到输入链中。
(三)。IPVS比较数据包请求的服务是否可以服务于集群,如果可以,则修正后的数据包的目的IP地址为后端服务器IP,然后将数据包接收到后路由链中。此时,报文的源IP是CIP,目的IP是RIP。
(四)。POSTROUTING链通过进程路由将数据包接收到真实服务器。
(e)。出于本发明的目的,真实服务器比较IP,并开始建立回应消息,并将其发送回导向服务器。此时,报文的源IP是RIP,目的IP是CIP。
(f)在f)之前。DirectorServer正在回显客户端,它此时会将源IP地址更正为我的VIP地址,然后回显到客户端。此时,消息的源IP是VIP,目的IP是CIP。
尝试:负载平衡分散集群企业级使用真实战争-LVS-nat
尝试情境:
一个灾难恢复后负载平衡器,两个网卡,一个桥接172.17.253.132,另一个仅托管192.168.10.200。
两个后端服务器,一个网卡只托管192.168.10.188和192.168.10.189,已经在基于lnmp的电子商务网站的服务器中使用。
1.设置灾难恢复后负载平衡器
1.yum安装ipvsadm-y
2.grep-I-C10"ipvs"/boot/config-version-release.x86_64,#检查内核是否可以支持ipvs模块。
3.iptables-F;setenfforce0muddy空防水墙策略,封闭selinux策略
4.IPVSADM-A-t172.17.253.132:80-Swrr#启动基于80个终端的虚拟web服务,调整算法为WRR。
5.IPVSADM-A-t172.17.253.132:80-r192.168.10.188:80-M-W1#将webservice的后端服务器设置为natthing方法,权重为1
ipvsadm-a-t172.17.253.132:80-r192.168.10.189:80-m-w1
6.更正内核设置并开始路由转发。
vim/etc/sysctl.conf
net.ipv4.ip_forward=1
Sysctl-p使修改后的内战设定参数失效。
两个。真实服务器中的设置
iptables-F;Setenforce0muddy空防水墙策略,封闭selinux策略
将网络背面设置为192.168.10.200,打开nginx、PHP-fpm、Mariadb进行服务。
路径添加defultgw192.168.10.200
第三,考证
在阅读器上遇到172.17.253.132。
LVS反向负载平衡灾难恢复事件表单
虚拟直接路由(VS-DR):使用间接路由技术来模拟服务器。当分散组中的计算机正在统一一个网段,并且分散组中的计算机接收请求包时间时,可以使用这种方法。分散组中节点的间接路由形式很不寻常,这与易道的非常相似。前一种形式基本是在收集东西的层面上(三层),间接路由形式应该是在数据的层面上。
理由:DR和REALSERVER都是用一个统一的IP来服务中国。但是只要DR停止响应ARP恳求,所有REALSERVER的ARP恳求链接到自己的IP都是无声的。也就是说,当互联网关闭时,对那个服务IP的请求会部分给DR,当Dr到达数据包时,根据条件化算法,它会找出对应的真实服务器,将目的MAC地址改为真实服务器的MAC,并发送给那个真实服务器。这时候真正的服务器分支到那个数据包的时候,是间接从客户端到那个数据包,处置完之后间接返回到客户端。因为DR要停止替换二层包头,所以DR和真实服务器之间需要有一个广播域,可以简单理解为在统一的交换机器上。
数据包到达后端服务器时,由均衡器进行备份,回来时不定时接收客户端。没有备用平衡器,这大大提高了合规性。
LVS反向负载平衡灾难恢复业务流程
(a)当用户的请求到达导向服务器时,所请求的数据消息将首先到达核心空之间的预路由链。此时,消息的源IP是CIP,目的IP是VIP。
(b)预路由检查虚拟数据包的目的IP是本地机器,并将数据包接收到输入链中。
(c)IPVS比较数据包请求的服务是否可用于集群。如果是,则将请求消息中的源MAC地址更正为DIP的MAC地址,将目的MAC地址更正为RIP的MAC地址,然后在后路由链中接收数据包。此时,源IP和目的IP都已经被纠正,只是源MAC位置是DIP的MAC位置,目的MAC位置是RIP的MAC位置。
(d)因为DS和RS在一个统一的集合中,所以它们通过两层过程传输。路由后链检查RIP的目的MAC地址,然后数据包将被接收到真正的服务器。
(e)如果RS发明请求消息的MAC地址是我自己的MAC地址,我将接收该消息。处理完成后,echo消息将通过processlo接口发送到eth0网卡,然后被收回。此时的源IP位置为VIP,目的IP为CIP。
(f)最后接收给客户的回应消息。
特点:
1.确保前端路由将把具有VIP目的地的所有消息发送到Director服务器,而不是RS。
2.RS可以使用公共场所;它也可以是公共网络位置。如果您使用公共网络位置,此时您可以停止通过过程互联网与RIP间接会面。
3.RS和Director服务器必须位于统一的物理集合中。
4.所有请求消息都通过Director服务器,但是echo消息不能进入Director服务器。
5.没有支持位置变化,也没有支持中心反射。
6.RS可以是大部分大学常用的 *** 作系统。
7.RS的网络关闭不允许指回DIP(因为我们不允许他做导演)
8.RS上的lo连接器设置VIP的IP地址。
尝试:后装平衡、分散集群、企业级使用的实战-LVS-DR形式;
试试:一个DR后负载均衡器,一个网卡172.17.253.132,桥接,两个后端服务器172.17.251.236和172.17.253.253,各一个网卡,桥接。
首先,它位于灾难恢复后负载平衡器上
1.yum安装ipvsadm-y
2.grep-I-C10"ipvs"/boot/config-version-release.x86_64,#检查内核是否可以支持ipvs模块。
3.iptables-F;setenfforce0muddy空防水墙策略,封闭selinux策略
4.ifconfigENS33:0172.17.253.100broadcast172.17.253.100netmask255.255.255up#将vip设置为本地网卡号ENS33:0(VIP位置可以任意),并且只广播本人,否则,以后战斗的后端。
5.路由添加-主机172.17.253.100Devens33:0#设置vip路由
6.IPVSADM-A-t172.17.253.100:80-Swrr#启动基于80个终端的虚拟web服务,调节方式为WRR。
7.IPVSADM-A-t172.17.253.100:80-r172.17.253.132:80-G-W1#将web服务后端的真实服务器设置为DR,方法权重为1
ipvsadm-a-t172.17.253.100:80-r172.17.253.253:80-g-w1
8.更正内核设置并打开路由转发。
vim/etc/sysctl.confnet.IPv4.IP_forward=1sysctl-p使修改后的内核设置参数失效。
二,在RS后端服务器上。
iptables-F;Setenforce0muddy空防水墙策略,封闭selinux策略
1.ifconfiglo:0172.17.253.100广播172.17.253.100网络掩码255.255.255.255up#在本地环回网卡lo上设置VIP,只广播自己。
2.routeAdd-Host172.17.253.100Lo:0#设置本地环回网卡路由
3.
echo"1">;/proc/sys/net/IPv4/conf/lo/ARP_ignore
#1只回答目的IP地址的ARP查询请求访问收集本地地址。
echo"2">;/proc/sys/net/IPv4/conf/lo/ARP_announce
#2利用最合适的当地位置进行调查。在这种形式中,该IP分组的源位置将被忽略,并且将进行测试来选择可以从该位置访问通信的本地位置。
echo"1">;/proc/sys/net/IPv4/conf/all/ARP_ignoreecho"2">/proc/sys/net/IPv4/conf/all/ARP_announce
#关闭的arp响应
(1):只有当被请求的目的IP设置在本地主机的请求消息的接收中心时,才会给出响应。
(2):需要停止非原收款停止通知。
4.开放web,php-fpm,mysql服务
第三,考证
在阅读器上遇到172.17.253.100(vip)。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)