理解Linux系统负荷(cpu load)

理解Linux系统负荷(cpu load),第1张

一、查看系统负荷

在Linux系统中,我们一般使用 uptime命令 查看( w命令 和 top命令 也行)。(另外,它们在苹果公司的Mac电脑上也适用。)

你在终端窗口键入uptime,系统会返回一行信息。

这行信息的后半部分,显示 "load average", 它的意思是 "系统的平均负荷" ,里面有三个数字,我们可以从中判断系统负荷是大还是小。它们的意思 分别是1分钟、5分钟、15分钟内系统的平均负荷。当CPU完全空闲的时候,平均负荷为0;当CPU工作量饱和的时候,平均负荷为1。 那么很显然, "load average"的值越低,比如等于0.2或0.3,就说明电脑的工作量越小,系统负荷比较轻。

二. 判断系统负荷是否过重,必须理解load average的真正含义

首先,假设最简单的情况,你的电脑只有一个CPU,所有的运算都必须由这个CPU来完成

如果CPU每分钟最多处理100个进程,那么系统负荷0.2,意味着CPU在这1分钟里只处理20个进程;系统负荷1.0,意味着CPU在这1分钟里正好处理100个进程;系统负荷1.7,意味着除了CPU正在处理的100个进程以外,还有70个进程正排队等着CPU处理。

为了电脑顺畅运行,系统负荷最好不要超过1.0,这样就没有进程需要等待了,所有进程都能第一时间得到处理。很显然,1.0是一个关键值,超过这个值,系统就不在最佳状态了,你要动手干预了。

三、系统负荷的经验法则

1.0是系统负荷的理想值吗?

不一定,系统管理员往往会留一点余地,当这个值达到0.7,就应当引起注意了。经验法则是这样的:

当系统负荷持续大于0.7,你必须开始调查了,问题出在哪里,防止情况恶化。

当系统负荷持续大于1.0,你必须动手寻找解决办法,把这个值降下来。

当系统负荷达到5.0,就表明你的系统有很严重的问题,长时间没有响应,或者接近死机了。你不应该让系统达到这个值。

四、多处理器

如果你的电脑装了2个CPU,会发生什么情况呢?

2个CPU,意味着电脑的处理能力翻了一倍,能够同时处理的进程数量也翻了一倍。

2个CPU表明系统负荷可以达到2.0,此时每个CPU都达到100%的工作量。推广开来, n个CPU的电脑,可接受的系统负荷最大为n.0 。

五、多核处理器

芯片厂商往往在 一个CPU内部,包含多个CPU核心 ,这被称为 多核CPU 。

在系统负荷方面,多核CPU与多CPU效果类似,所以考虑系统负荷的时候,必须 考虑这台电脑有几个CPU、每个CPU有几个核心 。然后, 把系统负荷除以总的核心数,只要每个核心的负荷不超过1.0 ,就表明电脑正常运行。

怎么知道电脑有多少个CPU核心呢?

"cat /proc/cpuinfo"命令,可以查看CPU信息。"grep -c 'model name' /proc/cpuinfo"命令,直接返回CPU的总核心数。

六、最佳观察时长

最后一个问题,"load average"一共返回三个平均值----1分钟系统负荷、5分钟系统负荷,15分钟系统负荷,----应该参考哪个值?

如果只有1分钟的系统负荷大于1.0,其他两个时间段都小于1.0,这表明只是暂时现象,问题不大。

如果15分钟内,平均系统负荷大于1.0(调整CPU核心数之后),表明问题持续存在,不是暂时现象。所以,你应该主要观察"15分钟系统负荷",将它作为电脑正常运行的指标。

正常情况下我们在发现Load 过高时都会去查询几个方向

按上面情况查询基本上99%的都能查出问题所在,但是剩余1%特殊情况确无法判断出来

下面介绍下剩余1%中的一种相对常见的情况。

查看一下进程的状态:

# top -H

# shift+o =选择w (按照状态排序)

# R(排序)

结果发现一近十个find和其它进程的状态是D(uninterruptible sleep)。

再看看进程,该机器挂了nfs,因此应该是大耗时 *** 作挂载盘的结果

1,一般这种情况想立刻解决可以直接重新mount这些盘使这些IO *** 作失败中断。

2, 强制卸载目录 umount -f 目录

注:使用-f 参数进行强制卸载时一般建议等一会儿,一些情况下处理需要1-2分钟的时间。

3,使用umount -f,问题依旧。使用fuser命令,先确认有那些进程在占用该目录

# fuser -cu 目录 查询关联应用

# fuser -ck 目录 强制卸载

【问题】 此处我要实现的是将芯片的ID用于网卡MAC地址,网卡驱动是enc28j60_init。 但是,读取芯片ID的函数,在as352x_afe_init模块中,所以要先初始化as352x_afe_init。 此处,内核编译完之后,在生成的system.map中可以看到, enc28j60_init在as352x_afe_init之前,所以,无法去读芯片ID。 所以我们的目标是,将as352x_afe_init驱动初始化放到enc28j60_init之前, 然后才能读取芯片ID,才能用于网卡初始化的时候的,将芯片ID设置成网卡MAC地址。

【解决过程】

【1】

最简单想到的,是内核里面的

archarmmach-as352xcore.c

中,去改devices设备列表中的顺序。

enc28j60_init对应的是ssp_device,因为网卡初始化用到的是SPI驱动去进行和通讯的。

as352x_afe_init对应的是afe_device。

原先是:

把afe改到最前面:

但是,实际结果是,没有任何影响,连systemp.map生成的,那么模块初始化顺序,都没有任何变化。 也就说明,想要实现驱动加载顺序的改变,改core.c里面的设备列表顺序是没有用的。

更多linux内核视频教程文档资料免费领取后台私信 【内核】 自行获取.

Linux内核源码/内存调优/文件系统/进程管理/设备驱动/网络协议栈-学习视频教程-腾讯课堂

【2】

在网上看到很多帖子,其说明的也很清楚了,就是:

Linux内核为不同驱动的加载顺序对应不同的优先级,定义了一些宏:

includelinuxinit.h

把自己的驱动的函数名用这些宏去定义之后, 就会对应不同的加载时候的优先级。

其中,我们写驱动中所用到的module_init对应的是 #define module_init(x) __initcall(x)而 #define __initcall(fn) device_initcall(fn) 所以,驱动对应的加载的优先级为6

在上面的不同的优先级中, 数字越小,优先级越高。 同一等级的优先级的驱动,加载顺序是链接过程决定的,结果是不确定的,我们无法去手动设置谁先谁后。 不同等级的驱动加载的顺序是先优先级高,后优先级低,这是可以确定的。

所以,像我们之前在驱动中用:

所以,大家都是同一个优先级去初始化,

最后这些驱动加载的顺序,可以查看在根目录下,

生成的system.map:

此处就是由于 c0019920 t __initcall_i2c_dev_init6 c0019924 t __initcall_as352x_afe_i2c_init6 c0019928 t __initcall_as352x_afe_init6 在c00198e4 t __initcall_enc28j60_init6之前,所以我这里才要去改。。。 知道原理,能想到的,就是要么把as352x_afe_init改到enc28j60_init之前一级,即优先级为5。即在驱动中,调用:fs_initcall(as352x_afe_init);要么把enc28j60_init改到as352x_afe_init之后,即优先级为7即在驱动中,调用:late_initcall(enc28j60_init);但是,此处麻烦就麻烦在,如果把as352x_afe_init改到enc28j60_init之前一级,发现后面网卡初始化enc28j60_init中,虽然读取芯片ID对了,但是后面的IP-auto configure 有问题。所以放弃。 如果把enc28j60_init改到as352x_afe_init之后,但是,从system.map中看到的是,优先级为7的驱动中,明显有几个驱动,也是和网卡初始化相关的,所以,这样改,尝试后,还是失败了。 所以,没法简单的通过调整现有的驱动的顺序,去实现顺序的调整。最后,被逼无奈,想到了一个可以实现我们需求的办法,那就是,单独定义一个优先级,把afe相关的初始化都放到那里面去,这样,就可以保证,其他没什么相关的冲突了。最后证实,这样是可以实现目的的。

具体添加一个新的优先级的步骤如下: 1.定义新的优先级 includelinuxinit.h中:

2.用对应新的宏,定义我们的驱动:

做到这里,本以为可以了,但是编译后,在system.map中,发现之前优先级为7的那几个函数,被放到system.map最后了,而不是预想的,在优先级7之后,在

之前。最后,发现时没有把对应的链接文件中的宏加进去:

3.includeasm-genericvmlinux.lds.h

最后,再重新编译,就可以实现我们要的,和afe相关的驱动初始化,都在网卡enc28j60_init之前了。也就可以在网卡里面读芯片ID了。当然,对应编译生成的system.map文件中,对应的通过module_init定义的驱动,优先级也都变成7了。而late_initcall对应优先级8了。 注:当前开发板arm的板子,所以,对应的load 脚本在:

linux-2.6.28.4archarmkernelvmlinux.lds 看起来,应该是这个文件: linux-2.6.28.4archarmkernelvmlinux.lds.S 生成上面那个脚本的。vmlinux.lds中的这一行:

就是将之前那些对应的init类型的函数,展开,放到这对应的位置。

【3】 不过,最后的最后,竟然发现网卡还是工作不正常,结果第二天,无意间发现是网卡地址设置导致网卡工作不正常的。 也就是说,实际是直接将afe设置到原先的优先级5就可以的,而不用这么麻烦去改系统的东西的...

不过,至少这也是一种办法,虽然不是那么的好...


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/7125169.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-01
下一篇 2023-04-01

发表评论

登录后才能评论

评论列表(0条)

保存