第一、链路聚合的定义和作用是什么?
第二、如何配置链路聚合?
第三、链路聚合的实际应用场景有那些?
第一、链路聚合的定义和作用是什么?
答:链路聚合的定义:链路聚合,官方称聚合链接,民间又称网卡组队,具体指的是将多个网卡绑定在一起组建一个虚拟网卡,外界与虚拟网卡进行通信,虚拟网卡再将信息进行分发;
链路聚合的作用:可以实现轮询式的流量负载均衡和热备份的作用;
举个栗子:
链路聚合就好比是一个包工头,这个包工头为了多赚钱,多接订单,肯定需要找多个小弟;
这样就可以保障,万一有一个小弟感冒了,不能上班,这时有其他小弟可以顶上;
当客户需要盖房子的时候,直接找包工头就好了,不需要一个一个的去找建筑工人;
第二、如何配置链路聚合?
答:
1、配置链路聚合的命令是:
nmcli connection add type team con-name team0 ifname team0 autoconnect yes config '{"runner": {"name": "activebackup"}}'
译为:nmcli connection 添加 类型 team(组队)
配置文件名 team0 网卡名 team0 每次开机自动启用
配置运行模式 热备份模式
整体译为:为系统网卡添加一个 team (团队),团队名称叫 team0 ,配置文件也叫 team0 , 并且设置为开机自动启动,配置运行模式为热备份模式;
2、为链路聚合添加成员的命令是:
nmcli connection add type team-slave con-name team0-1 ifname eth1 master team0
nmcli connection add type team-slave con-name team0-2 ifname eth2 master team0
注释:nmcli connection 添加类型为 team的成员
配置文件名 team0-1 网卡为 eth1 主设备为 team0
整体译为:为主设备team0添加两张网卡,eth1和eth2;
3、为tem0配置ip地址的命令是:
nmcli connection modify team0 ipv4.method manual ipv4.addresses
“IP 地址 / 子网掩码” connection.autoconnect yes
4、激活team0的命令是:
nmcli connection up team0
第三、链路聚合的实际应用场景有那些?
答:当服务器提供比较重要的服务时,只准备一张网卡是远远不够的,因为一但网卡出现故障,客户就无法访问,这就会造成客户流失,体验感差;
这个时候就可以运用链路聚合的方法来解决,将多张网卡绑定在一起创建一张虚拟网卡,从而实现网卡热备份,流量轮询式负载均衡;
以此来保障服务器能够正常提供服务,给用户以良好的体验;
注意事项:
在创建虚拟网卡和添加成员时,如果命令敲错了,一定要删除错误的信息,以免造成通信混乱;
删除的命令是:nmcli connection delete team0 (team0或team x)
查看team0的信息命令是: teamdctl team0 state
以上.......
(本篇完)
祝:开心!
罗贵
2019-03-24
计算机用户舍弃微软,开始应用于是很多人开始应用Linux *** 作系统,学习Linux时,学习Linux,你可能会遇到Linux系统应对短连接的负载能力问题,这里将介绍Linux系统应对短连接的负载能力的解决方法,在这里拿出来和大家分享一下。在存在大量短连接的情况下,Linux的TCP栈一般都会生成大量的 TIME_WAIT 状态的socket。你可以用下面的命令看到:
netstat -ant| grep -i time_wait
有时候,这个数目是惊人的:
netstat -ant|grep -i time_wait |wc -l
可能会超过三四万。这个时候,我们需要修改 Linux kernel 的 tcp time wait的时间,缩短之,有个 sysctl 参数貌似可以使用,它是 /proc/sys/net/ipv4/tcp_fin_timeout,缺省值是 60,也就是60秒,很多网上的资料都说将这个数值设置低一些就可以减少netstat 里面的TIME_WAIT状态,但是这个说法是错误的。经过认真阅读Linux的内核源代码,我们发现这个数值其实是输出用的,修改之后并没有真正的读回内核中进行使用,而内核中真正管用的是一个宏定义,在 $KERNEL/include/net/tcp.h里面,有下面的行:
#define TCP_TIMEWAIT_LEN (60*HZ) /* how long to wait to destroy TIME-WAIT * state, about 60 seconds */
而这个宏是真正控制 TCP TIME_WAIT 状态的超时时间的。如果我们希望减少 TIME_WAIT 状态的数目(从而节省一点点内核 *** 作时间),那么可以把这个数值设置低一些,根据我们的测试,设置为 10 秒比较合适,也就是把上面的修改为
#define TCP_TIMEWAIT_LEN (10*HZ) /* how long to wait to destroy TIME-WAIT * state, about 60 seconds */
然后重新编译内核,重启系统即可发现短连接造成的TIME_WAIT状态大大减少:
netstat -ant | grep -i time_wait |wc -l
一般情况都可以至少减少2/3。也能相应提高系统应对短连接的速度。以上就是如何进行Linux系统应对短连接的负载能力介绍。
在linux系统里面,常见的有两个地方可以看到当前系统的最近平均负载,top命令和uptime,如果执行一下uptime命令的话,可以看到有一个load average,表示最近1分钟,5分钟,15分钟的系统负载。# uptime
23:31:04 up 5 days, 10:20, 1 user, load average: 0.00, 0.01, 0.05
一般单核的CPU的话,负载到1证明系统已经运行比较满了,多核的话,有几个核就能到几。
但是,有没有仔细想过,这个负载值究竟可以有多高?
我们先用一个程序做下实验
等这个程序运行一会,再执行uptime看下负载
# uptime
23:44:53 up 5 days, 10:33, 2 users, load average: 16383.13, 14111.52, 7705.88
看到没,这个程序竟然把load神奇的刷到了16000这个级别,真是厉害,这个一下子似乎打破了对系统负载的认识。
原理是这样的,通过调用vfork产生指定数量的D状态的进程,从而提高负载。看看系统文档,是这样说的
vfork() differs from fork(2) in that the calling thread is suspended until the child terminates (either normally, by calling _exit(2), or abnormally, after delivery of a fatal signal), or it makes a call to execve(2). Untilthat point, the child shares all memory with its parent, including the stack.
vfork 的子进程只要不 execve 或者退出,父进程就一直挂着(在D状态)。这里就是让最后一个子进程用 scanf 等输入。
但是这个就是极限了吗?
程序员在这种事情上是不会停止追求的,下来再看一个终极版本的程序
执行一下
# stap -g loadavg.stp $(((1
看下效果
# uptime
23:48:19 up 5 days, 10:37, 2 users, load average: 9007199254740991.00, 14987.03, 9007199254740991.00
我天,这是要爆表了,终极load,系统要炸了吗?
不过,你知道其中的原理吗,vfork相当于还是利用了系统计算load的原理,通过增加D状态进程影响计算,这个终极版,则是直接修改计算过程中用到的参数,让系统算出一个极大值来,没有什么能够超越这个了。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)