欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

linux每日命令(38):iostat命令

程序员文章站 2022-05-17 23:33:55
Linux系统中的 iostat是I/O statistics(输入/输出统计)的缩写,iostat工具将对系统的磁盘操作活动进行监视。它的特点是汇报磁盘活动统计情况,同时也会汇报出CPU使用情况。同vmstat一样,iostat也有一个弱点,就是它不能对某个进程进行深入分析,仅对系统的整体情况进行 ......

linux系统中的 iostat是i/o statistics(输入/输出统计)的缩写,iostat工具将对系统的磁盘操作活动进行监视。它的特点是汇报磁盘活动统计情况,同时也会汇报出cpu使用情况。同vmstat一样,iostat也有一个弱点,就是它不能对某个进程进行深入分析,仅对系统的整体情况进行分析。iostat属于sysstat软件包。可以用yum install sysstat 直接安装。

一.命令格式

iostat [参数] [时间] [次数]

二.命令功能

通过iostat方便查看cpu、网卡、tty设备、磁盘、cd-rom 等等设备的活动情况, 负载信息。

三.命令参数

参数 描述
-c 显示cpu使用情况
-d 显示磁盘使用情况
-k 以 kb 为单位显示,默认也是以kb显示
-m 以 m 为单位显示
-n 显示磁盘阵列(lvm) 信息
-n 显示nfs 使用情况
-p [磁盘] 显示磁盘和分区的情况
-t 显示终端和cpu的信息
-x 显示详细信息
-v 显示版本信息

四.使用实例

1:显示所有设备负载情况

命令:

iostat

输出:

[root@localhost tmp]# iostat
linux 3.10.0-862.el7.x86_64 (localhost.localdomain)     2018年12月08日     _x86_64_    (2 cpu)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           2.19    0.01    8.30    0.00    0.00   89.50

device:            tps    kb_read/s    kb_wrtn/s    kb_read    kb_wrtn
scd0              0.00         0.00         0.00       1050          0
sda               0.43        13.70         6.11    7742241    3453170
dm-0              0.45        13.65         6.01    7709059    3393302
dm-1              0.03         0.01         0.10       6168      57680

说明:

%user:cpu处在用户模式下的时间百分比。

%nice:cpu处在带nice值的用户模式下的时间百分比。

%system:cpu处在系统模式下的时间百分比。

%iowait:cpu等待输入输出完成时间的百分比。

%steal:管理程序维护另一个虚拟处理器时,虚拟cpu的无意识等待时间百分比。

%idle:cpu空闲时间百分比。

备注:

如果%iowait的值过高,表示硬盘存在i/o瓶颈,%idle值高,表示cpu较空闲,
如果%idle值高但系统响应慢时,有可能是cpu等待分配内存,此时应加大内存容量。
如果idle小于70% io压力就较大了,一般读取速度有较多的wait。
如果%idle值如果持续低于10,那么系统的cpu处理能力相对较低,表明系统中最需要解决的资源是cpu。

tps:该设备每秒的传输次数(indicate the number of transfers per second that were issued to the device.)。“一次传输”意思是“一次i/o请求”。多个逻辑请求可能会被合并为“一次i/o请求”。“一次传输”请求的大小是未知的。

kb_read/s:每秒从设备(drive expressed)读取的数据量;

kb_wrtn/s:每秒向设备(drive expressed)写入的数据量;

kb_read:读取的总数据量;kb_wrtn:写入的总数量数据量;

这些单位都为kilobytes。

2:定时显示所有信息

命令:

iostat 2 3

输出:

[root@localhost tmp]# iostat 2 3
linux 3.10.0-862.el7.x86_64 (localhost.localdomain)     2018年12月08日     _x86_64_    (2 cpu)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           2.19    0.01    8.30    0.00    0.00   89.49

device:            tps    kb_read/s    kb_wrtn/s    kb_read    kb_wrtn
scd0              0.00         0.00         0.00       1050          0
sda               0.43        13.70         6.11    7742257    3453702
dm-0              0.45        13.64         6.00    7709075    3393834
dm-1              0.03         0.01         0.10       6168      57680

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.97    0.00   10.28    0.00    0.00   81.75

device:            tps    kb_read/s    kb_wrtn/s    kb_read    kb_wrtn
scd0              0.00         0.00         0.00          0          0
sda               0.00         0.00         0.00          0          0
dm-0              0.00         0.00         0.00          0          0
dm-1              0.00         0.00         0.00          0          0

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.79    0.00    9.87    0.00    0.00   82.34

device:            tps    kb_read/s    kb_wrtn/s    kb_read    kb_wrtn
scd0              0.00         0.00         0.00          0          0
sda               0.00         0.00         0.00          0          0
dm-0              0.00         0.00         0.00          0          0
dm-1              0.00         0.00         0.00          0          0

说明:

每隔2秒刷新显示,且显示3次

3:显示指定磁盘信息

命令:

iostat -d sda

输出:

[root@localhost tmp]# iostat -d sda
linux 3.10.0-862.el7.x86_64 (localhost.localdomain)     2018年12月08日     _x86_64_    (2 cpu)

device:            tps    kb_read/s    kb_wrtn/s    kb_read    kb_wrtn
sda               0.43        13.69         6.11    7742257    3453933

4:以m为单位显示所有信息

命令:

iostat -m

输出:

root@localhost tmp]# iostat -m
linux 3.10.0-862.el7.x86_64 (localhost.localdomain)     2018年12月08日     _x86_64_    (2 cpu)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           2.19    0.01    8.30    0.00    0.00   89.49

device:            tps    mb_read/s    mb_wrtn/s    mb_read    mb_wrtn
scd0              0.00         0.00         0.00          1          0
sda               0.43         0.01         0.01       7564       3373
dm-0              0.45         0.01         0.01       7531       3314
dm-1              0.03         0.00         0.00          6         56

5:显示设备磁盘使用情况详细信息,使用率(%util)、响应时间(await)

命令:

iostat -d -x 

输出:

[root@localhost tmp]# iostat -d -x
linux 3.10.0-862.el7.x86_64 (localhost.localdomain)     2018年12月08日     _x86_64_    (2 cpu)

device:         rrqm/s   wrqm/s     r/s     w/s    rkb/s    wkb/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
scd0              0.00     0.00    0.00    0.00     0.00     0.00    72.41     0.00    1.76    1.76    0.00   1.52   0.00
sda               0.00     0.05    0.21    0.22    13.68     6.10    91.28     0.00    1.95    2.22    1.69   0.53   0.02
dm-0              0.00     0.00    0.21    0.24    13.62     6.00    87.07     0.00    2.05    2.26    1.87   0.49   0.02
dm-1              0.00     0.00    0.00    0.03     0.01     0.10     8.24     0.00   10.60    0.81   11.33   0.26   0.00

说明:

disk属性值说明:

rrqm/s: 每秒进行 merge 的读操作数目.即 delta(rmerge)/s

wrqm/s: 每秒进行 merge 的写操作数目.即 delta(wmerge)/s

r/s: 每秒完成的读 i/o 设备次数.即 delta(rio)/s

w/s: 每秒完成的写 i/o 设备次数.即 delta(wio)/s

rsec/s: 每秒读扇区数.即 delta(rsect)/s

wsec/s: 每秒写扇区数.即 delta(wsect)/s

rkb/s: 每秒读k字节数.是 rsect/s 的一半,因为每扇区大小为512字节.(需要计算)

wkb/s: 每秒写k字节数.是 wsect/s 的一半.(需要计算)

avgrq-sz:平均每次设备i/o操作的数据大小 (扇区).delta(rsect+wsect)/delta(rio+wio)

avgqu-sz:平均i/o队列长度.即 delta(aveq)/s/1000 (因为aveq的单位为毫秒).

await: 平均每次设备i/o操作的等待时间 (毫秒).即 delta(ruse+wuse)/delta(rio+wio)

svctm: 平均每次设备i/o操作的服务时间 (毫秒).即 delta(use)/delta(rio+wio)

%util: 一秒中有百分之多少的时间用于 i/o 操作,或者说一秒中有多少时间 i/o 队列是非空的,即 delta(use)/s/1000 (因为use的单位为毫秒)

备注:

如果 %util 接近 100%,说明产生的i/o请求太多,i/o系统已经满负荷,该磁盘可能存在瓶颈。
%idle小于70% io压力就较大了,一般读取速度有较多的wait。
同时可以结合vmstat 查看查看b参数(等待资源的进程数)和wa参数(io等待所占用的cpu时间的百分比,高过30%时io压力高)。
另外 await 的参数也要多和 svctm 来参考。差的过高就一定有 io 的问题。
avgqu-sz 也是个做 io 调优时需要注意的地方,这个就是直接每次操作的数据的大小,如果次数多,但数据拿的小的话,其实 io 也会很小。
如果数据拿的大,才io 的数据会高。也可以通过 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s。也就是讲,读定速度是这个来决定的。
svctm 一般要小于 await (因为同时等待的请求的等待时间被重复计算了),svctm 的大小一般和磁盘性能有关,cpu/内存的负荷也会对其有影响,请求过多也会间接导致 svctm 的增加。
await 的大小一般取决于服务时间(svctm) 以及 i/o 队列的长度和 i/o 请求的发出模式。如果 svctm 比较接近 await,说明 i/o 几乎没有等待时间;
如果 await 远大于 svctm,说明 i/o 队列太长,应用得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 cpu。
队列长度(avgqu-sz)也可作为衡量系统 i/o 负荷的指标,但由于 avgqu-sz 是按照单位时间的平均值,所以不能反映瞬间的 i/o 洪水。

形象的比喻:

r/s+w/s 类似于交款人的总数
平均队列长度(avgqu-sz)类似于单位时间里平均排队人的个数
平均服务时间(svctm)类似于收银员的收款速度
平均等待时间(await)类似于平均每人的等待时间
平均i/o数据(avgrq-sz)类似于平均每人所买的东西多少
i/o 操作率 (%util)类似于收款台前有人排队的时间比例

设备io操作:总io(io)/s = r/s(读) +w/s(写) =1.46 + 25.28=26.74
平均每次设备i/o操作只需要0.36毫秒完成,现在却需要10.57毫秒完成,因为发出的 请求太多(每秒26.74个),假如请求时同时发出的,可以这样计算平均等待时间:
平均等待时间=单个i/o服务器时间*(1+2+...+请求总数-1)/请求总数
每秒发出的i/0请求很多,但是平均队列就4,表示这些请求比较均匀,大部分处理还是比较及时。