1 理解Linux系统的“平均负载”
什么是平均负载
我们知道使用top或uptime可以用来了解系统的负载情况。
uptime
2 02:34:03 up 2 days, 20:14, 1 user, load average: 0.63, 0.83, 0.88
02:34:03 // 当前时间
2up 2 days, 20:14 // 系统运行时间
31 user // 正在登录用户数
而最后三个数字,依次则是过去 1 分钟、5 分钟、15 分钟的平均负载
平均负载是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数,它和 CPU 使用率并没有直接关系。
所谓可运行状态的进程,是指正在使用 CPU 或者正在等待 CPU 的进程,也就是我们常用ps 命令看到的,处于 R 状态(Running 或 Runnable)的进程。
不可中断状态的进程则是正处于内核态关键流程中的进程,并且这些流程是不可打断的, 比如最常见的是等待硬件设备的 I/O 响应,也就是我们在 ps 命令中看到的 D 状态(Uninterruptible Sleep,也称为 Disk Sleep)的进程。
比如,当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题。所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制。
因此,可以简单理解为,平均负载其实就是平均活跃进程数。平均活跃进程数,直观上的理解就是单位时间内的活跃进程数,但它实际上是活跃进程数的指数衰减平均值。这 个“指数衰减平均”的详细含义你不用计较,这只是系统的一种更快速的计算方式,你把它直接当成活跃进程数的平均值也没问题。
既然平均的是活跃进程数,那么最理想的,就是每个 CPU 上都刚好运行着一个进程,这样每个 CPU 都得到了充分利用。
比如当平均负载为 2 时,意味着什么呢?
在只有 2 个 CPU 的系统上,意味着所有的 CPU 都刚好被完全占用。
在 4 个 CPU 的系统上,意味着 CPU 有 50% 的空闲。
而在只有 1 个 CPU 的系统中,则意味着有一半的进程竞争不到 CPU。
平均负载为多少时合理
平均负载最理想的情况是等于 CPU 个数。所以在评判平均负载时,首先你要知道系统有几个 CPU,这可以通过 top 命令或者从文件 /proc/cpuinfo 中读取
[root@web-01 ~]# grep 'model name' /proc/cpuinfo
model name : Intel(R) Core(TM) i5-8250U CPU @ 1.60GHz
model name : Intel(R) Core(TM) i5-8250U CPU @ 1.60GHz
有了 CPU 个数,我们就可以判断出,当平均负载比 CPU 个数还大的时候,系统已经出现了过载。
三个不同时间间隔的平均值,其实给我们提供了,分析系统负载趋势的数据来源,让我们能更全面、更立体地理解目前的负载状况。
如果 1 分钟、5 分钟、15 分钟的三个值基本相同,或者相差不大,那就说明系统负载很平稳。
但如果 1 分钟的值远小于 15 分钟的值,就说明系统最近 1 分钟的负载在减少,而过去15 分钟内却有很大的负载。
反过来,如果 1 分钟的值远大于 15 分钟的值,就说明最近 1 分钟的负载在增加,这种增加有可能只是临时性的,也有可能还会持续增加下去,所以就需要持续观察。一旦 1 分钟的平均负载接近或超过了 CPU 的个数,就意味着系统正在发生过载的问题,这时就得分析调查是哪里导致的问题,并要想办法优化了。
这里再举个例子,假设我们在一个单 CPU 系统上看到平均负载为 1.73,0.60,7.98, 那么说明在过去 1 分钟内,系统有 73% 的超载,而在 15 分钟内,有 698% 的超载,从整体趋势来看,系统的负载在降低。
那么,在实际生产环境中,平均负载多高时,需要我们重点关注呢?
一般,当平均负载高于 CPU 数量 70% 的时候,你就应该分析排查负载高的问题了。一旦负载过高,就可能导致进程响应变慢,进而影响服务的正常功能。
但 70% 这个数字并不是绝对的,最推荐的方法,还是把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的变化趋势。当发现负载有明显升高趋势时,比如说负载翻倍了,再去做分析和调查。
平均负载与 CPU 使用率
既然平均负载代表的是活跃进程数,那平均负载高了,不就意味着 CPU 使用率高吗?
平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU 和等待I/O 的进程。
而 CPU 使用率,是单位时间内 CPU 繁忙情况的统计,跟平均负载并不一定完全对应。比如:
CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的;
I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高;
大量等待 CPU 的进程调度也会导致平均负载升高,此时的 CPU 使用率也会比较高。
平均负载案例分析
下面,我们以三个示例分别来看这三种情况,并用 iostat、mpstat、pidstat 等工具,找出平均负载升高的根源。
stress 是一个 Linux 系统压力测试工具,这里我们用作异常进程模拟平均负载升高的场景。
而 sysstat 包含了常用的 Linux 性能工具,用来监控和分析系统的性能。我们的案例会用到这个包的两个命令 mpstat 和 pidstat。
安装sysstat
wget http://pagesperso-orange.fr/sebastien.godard/sysstat-12.1.5-1.x86_64.rpm
yum localinstall sysstat-12.1.5-1.x86_64.rpm -y
mpstat 是一个常用的多核 CPU 性能分析工具,用来实时查看每个 CPU 的性能指标, 以及所有 CPU 的平均指标。
pidstat 是一个常用的进程性能分析工具,用来实时查看进程的 CPU、内存、I/O 以及上下文切换等性能指标。
场景一:CPU 密集型进程
#在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景
[root@doit ~]# stress --cpu 1 --timeout 600
stress: info: [25975] dispatching hogs: 1 cpu, 0 io, 0 vm, 0 hdd [root@doit ~]# watch -d uptime Every 2.0s: uptime Thu Jul 11 17:34:31 2019 17:34:31 up 33 days, 3:47, 6 users, load average: 0.80, 0.66, 0.66
#1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到, [root@doit ~]# mpstat -P ALL 5
Linux 4.20.0-1.el7.elrepo.x86_64 (doit) 07/11/2019 _x86_64_ (2 CPU)
05:33:34 PM CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
05:33:39 PM all 50.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 49.80
05:33:39 PM 0 100.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
05:33:39 PM 1 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 99.80 #正好有一个 CPU 的使用率为 100%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。 [root@doit ~]# pidstat -u 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit) 07/11/2019 _x86_64_ (2 CPU)
05:35:13 PM UID PID %usr %system %guest %wait %CPU CPU Command
05:35:18 PM 27 3769 0.00 0.20 0.00 0.00 0.20 0 mysqld
05:35:18 PM 0 25976 99.80 0.00 0.00 0.00 99.80 0 stress
05:35:18 PM 0 26115 0.00 0.20 0.00 0.00 0.20 1 pidstat
#从这里可以明显看到,stress 进程的 CPU 使用率为 100%。
场景二:I/O 密集型进程
[root@doit ~]# stress -i 1 --timeout 600
stress: info: [23627] dispatching hogs: 0 cpu, 1 io, 0 vm, 0 hdd [root@doit ~]# watch -d uptime
Every 2.0s: uptime Thu Jul 11 15:50:57 2019
15:50:57 up 33 days, 2:04, 8 users, load average: 1.39, 1.09, 1.00 [root@doit ~]# mpstat -P ALL 5
Linux 4.20.0-1.el7.elrepo.x86_64 (doit) 07/11/2019 _x86_64_ (2 CPU)
03:51:20 PM CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
03:51:25 PM all 0.42 0.00 8.60 25.18 0.00 0.10 0.00 0.00 0.00 65.69
03:51:25 PM 0 0.65 0.00 10.85 51.84 0.00 0.22 0.00 0.00 0.00 36.44
03:51:25 PM 1 0.20 0.00 6.50 0.20 0.00 0.00 0.00 0.00 0.00 93.09
# 平均负载的升高是由于 iowait 的升高。 # 哪个进程,导致 iowait 这么高呢?我们还是用 pidstat 来查询:
[root@doit ~]# pidstat -u 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit) 07/11/2019 _x86_64_ (2 CPU)
03:51:44 PM UID PID %usr %system %guest %wait %CPU CPU Command
03:51:49 PM 0 10 0.00 0.20 0.00 0.20 0.20 1 rcu_sched
03:51:49 PM 0 1553 0.00 2.79 0.00 0.00 2.79 1 kworker/1:1H-kblockd
03:51:49 PM 0 1667 0.00 4.19 0.00 0.00 4.19 0 kworker/0:1H-kblockd
03:51:49 PM 0 3086 0.00 0.20 0.00 1.00 0.20 0 haveged
03:51:49 PM 0 24186 0.00 0.20 0.00 0.00 0.20 1 watch
03:51:49 PM 0 24369 0.40 18.16 0.00 8.18 18.56 1 stress
03:51:49 PM 0 24512 0.00 0.20 0.00 0.00 0.20 0 pidstat
# 可以发现,还是 stress 进程导致的。 [root@doit ~]# pidstat -d 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit) 07/11/2019 _x86_64_ (2 CPU)
05:06:14 PM UID PID kB_rd/s kB_wr/s kB_ccwr/s iodelay Command
05:06:19 PM 0 25318 0.00 0.00 0.00 347 stress
场景三:大量进程的场景
当系统中运行进程超出 CPU 运行能力时,就会出现等待 CPU 的进程。比如,我们还是使用 stress,但这次模拟的是 8 个进程:
[root@doit ~]# stress -c 8 --timeout 600
stress: info: [25324] dispatching hogs: 8 cpu, 0 io, 0 vm, 0 hdd [root@doit ~]# watch -d uptime
Every 2.0s: uptime Thu Jul 11 17:24:24 2019
17:24:24 up 33 days, 3:37, 6 users, load average: 6.12, 2.83, 1.08
# 由于系统只有 2 个 CPU,明显比 8 个进程要少得多,因而,系统的 CPU 处于严重过载状态 接着再运行 pidstat 来看一下进程的情况:
[root@doit ~]# pidstat -u 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit) 07/11/2019 _x86_64_ (2 CPU)
05:22:26 PM UID PID %usr %system %guest %wait %CPU CPU Command
05:22:31 PM 0 3104 0.00 0.20 0.00 1.00 0.20 1 qemu-ga
05:22:31 PM 27 3769 0.00 0.20 0.00 0.00 0.20 0 mysqld
05:22:31 PM 0 25325 24.95 0.00 0.00 75.45 24.95 1 stress
05:22:31 PM 0 25326 24.75 0.00 0.00 74.65 24.75 1 stress
05:22:31 PM 0 25327 24.95 0.00 0.00 75.45 24.95 1 stress
05:22:31 PM 0 25328 24.75 0.00 0.00 74.65 24.75 0 stress
05:22:31 PM 0 25329 24.95 0.00 0.00 74.65 24.95 1 stress
05:22:31 PM 0 25330 24.95 0.00 0.00 74.65 24.95 0 stress
05:22:31 PM 0 25331 25.15 0.00 0.00 75.05 25.15 0 stress
05:22:31 PM 0 25332 24.95 0.00 0.00 74.85 24.95 0 stress
05:22:31 PM 0 25345 0.00 0.20 0.00 0.00 0.20 1 pidstat 可以看出,8 个进程在争抢 2 个 CPU,每个进程等待 CPU 的时间(也就是代码块中的%wait 列)高达 75%。这些超出 CPU 计算能力的进程,最终导致 CPU 过载。
小结
分析完这三个案例,我再来归纳一下平均负载的理解。
平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况。但只看平均负载本身,我们并不能直接发现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也要注意:
平均负载高有可能是 CPU 密集型进程导致的;
平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 更繁忙了;
当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,辅助分析负载的来源。
其他:
1.现在大多数CPU有超线程能力,在计算和评估平均负载的时候,CPU的核数是指物理核数,应该是超线程功能的逻辑核数。
2.用htop看负载,因为它更直接(在F2配置中勾选所有开关项,打开颜色区分功能),不同的负载会用不同的颜色标识。比如cpu密集型的应用,它的负载颜色是绿色偏高,iowait的操作,它的负载颜色是红色偏高等等,根据这些指标再用htop的sort就很容易定位到有问题的进程。还有个更好用的atop命令,好像是基于sar的统计生成的报告,直接就把有问题的进程标红了,更直观。
1 理解Linux系统的“平均负载”的更多相关文章
- 查看Linux系统的平均负载
1.Linux系统的平均负载的概念 有时候我们会觉得系统响应很慢,但是又找不到原因,这时就要查看平均负载了,看它是否有大量的进程在排队等待.特定时间间隔内运行队列中的平均进程数可以反映系统的繁忙程度, ...
- 解析Linux系统的平均负载概念
一.什么是系统平均负载(Load average)? 在Linux系统中,uptime.w.top等命令都会有系统平均负载load average的输出,那么什么是系统平均负载呢?系统平均负载被定义为 ...
- 全面了解 Linux 服务器 - 4. 查看 Linux 系统的平均负载
可使用 uptime.top.w 命令来查看. 以 uptime 命令为例: liuqian@ubuntu:~$ uptime 17:31:26 up 7:27, 2 users, load aver ...
- Linux系统中到底应该怎么理解系统的平均负载
02 | 基础篇:到底应该怎么理解“平均负载”? 每次发现系统变慢时,我们通常做的第一件事,就是执行 top 或者 uptime 命令,来了解系统的负载情况.比如像下面这样,我在命令行里输入了 upt ...
- 深入理解linux系统下proc文件系统内容
深入理解linux系统下proc文件系统内容 内容摘要:Linux系统上的/proc目录是一种文件系统,即proc文件系统. Linux系统上的/proc目录是一种文件系统,即proc文件系统.与其它 ...
- Linux系统排查——CPU负载篇
本随笔介绍CPU负载的排查手段. 查看系统负载的工具:uptime,w,都能查看系统负载,系统平均负载是处于运行或不可打扰状态的进程的平均数, 可运行:运行态,占用CPU,或就绪态,等待CPU调度. ...
- 理解Linux系统中的load average
理解Linux系统中的load average(图文版) 博客分类: Linux linux load nagios 一.什么是load average? linux系统中的Load对当前CPU工作 ...
- Day 22 进程管理2之系统的平均负载
1.管理进程状态 当程序运行为进程后,如果希望停止进程,怎么办呢? 那么此时我们可以使用linux的kill命令对进程发送关闭信号.当然除了kill.还有killall,pkill 1.使用kill ...
- 理解 uptime 的:“平均负载”? 如何模拟测试
每次发现系统变慢时,我们通常做的第一件事,就是执行 top 或者 uptime 命令,来了解系统的负载情况.比如像下面这样,我在命令行里输入了 uptime 命令,系统也随即给出了结果. [root@ ...
随机推荐
- Anacoda下报错conda command not found 以及TypeError: __new__() got an unexpected keyword argument 'serialized_options'
在anacoda安装完成后,执行conda list命令,显示command not found 解决方法: 对于anaconda 2 , 输入export PATH=~/anaconda2/bin ...
- 黑马 - poi Excel2
文件上传: //划线处值得效仿 构造用户列表:User.java 批量保存用户
- 【运维】Shell -- 快速上手Shell脚本
1.Shell概述 shell脚本是利用shell的功能所写的一个[程序(program)].这个程序是使用纯文本文件,将一些shell的语法与命令(含外部命令)写在里面,搭配正则表达式.管道命令与数 ...
- Day09_47_Map
Map 集合 Map集合** 继承关系** <interface>: Map(接口)<---HashMap(class)/HashTable(class)/SortedMap(子接口 ...
- ESP32音频开发板ESP32-Korvo V1.1踩坑
电池供电ESP32-Korvo V1.1开发板供电电压低于3.9V不断复位: 报错->Brownout detector was triggered 断电探测器触发复位 根据同行资料发现,禁用断 ...
- 脱壳——UPX脱壳原理(脱壳helloworld)
脱壳--UPX脱壳原理 脱壳步骤 1 找到OEP 2 dump(导出)内存文件 3 修复 1 找到OEP 1 程序运行先从壳代码运行,壳代码执行完之后会跳转到真正的OEP,也就是是说第一步,首先要找到 ...
- Servlet与Netty横向对比
为什么要把这两个看起来不是很搭的东西放在一起对比呢?首先它们两个都是网络编程框架和规范,而且通过我的观察,从API的设计.生命周期方法.处理流程等等方面,他们确实有太多相似的地方了,如果想要深入地学习 ...
- 1.9.1- html5文档类型和字符集
html5新标签与特性 文档类型设定 字符设定:
- 第四部分 数据搜索之使用HBASE的API实现条件查询
因为数据清洗部分需要用到Mapreduce,所以先解决hbase的问题,可以用命令先在hbase存一下简单的数据进行查询,之后只要替换数据就可以实现了原本功能 在看该部分前,确保Hase API看了, ...
- 简单使用高德地图开放平台API
需求说明 输入经纬度,得到城市名 挑选API 使用高德逆地理编码API,点击查看文档 demo <?php /** * 根据输入的经纬度返回城市名称 * @param $longitude 终点 ...