亚欧色一区w666天堂,色情一区二区三区免费看,少妇特黄A片一区二区三区,亚洲人成网站999久久久综合,国产av熟女一区二区三区

  • 發布文章
  • 消息中心
點贊
收藏
評論
分享
原創

硬盤IO性能測試的三種方

2024-07-16 09:32:19
314
0
對于I/O的性能測試,基本都是用dd開始的,dd Linux/UNIX 下的一個非常有用的命令,作用是用指定大小的塊拷貝一個文件,并在拷貝的同時進行指定的轉換。它是缺省的工具,也是最簡單的工具,但是沒有并行化,對于SSD不友好。

接著進階的就是IOmeter,在SSD出現之前,IOmeter基本可以滿足大部分工作,除了他的Linux版本的I/O generator在早期的時候對LinuxDirect I/O的支持不好。

之后,就是Fio的出現,在目前所有的性能測試工具中,Fio生成一個IO請求的代價是最小的。

1 dd命令測試方法

1.1參數說明
if=file
輸入文件名,缺省為標準輸入
of=file
輸出文件名,缺省為標準輸出
ibs=bytes
一次讀入 bytes 個字節(即一個塊大小為 bytes 個字節)
obs=bytes
一次寫 bytes 個字節(即一個塊大小為 bytes 個字節)
bs=bytes
同時設置讀寫塊的大小為 bytes ,可代替 ibs obs
cbs=bytes
一次轉換 bytes 個字節,即轉換緩沖區大小
skip=blocks
從輸入文件開頭跳過 blocks 個塊后再開始復制
seek=blocks
從輸出文件開頭跳過 blocks 個塊后再開始復制(通常只有當輸出文件是磁盤或磁帶時才有效)
count=blocks
僅拷貝 blocks 個塊,塊大小等于 ibs 指定的字節數
conv=conversion[,conversion…]
用指定的參數轉換文件
iflag=FLAGS
指定讀的方式FLAGS,參見“FLAGS參數說明
oflag=FLAGS
指定寫的方式FLAGS,參見“FLAGS參數說明
 

1.2 測試磁盤寫能力
dd if=/dev/zero of=/opt/iotest bs=4k count=100000
 

因為/dev/zero是一個偽設備,它只產生空字符流,對它不會產生IO,所以,IO都會集中在of文件中,of文件只用于寫,所以這個命令相當于測試磁盤的寫能力。命令結尾添加oflag=direct將跳過內存緩存,添加oflag=sync將跳過hdd緩存。

1.3 測試磁盤讀能力

dd if=/dev/sdb of=/dev/null bs=4k

因為/dev/sdb是一個物理分區,對它的讀取會產生IO/dev/null是偽設備,相當于黑洞,of到該設備不會產生IO,所以,這個命令的IO只發生在/dev/sdb上,也相當于測試磁盤的讀能力。

1.4 測試同時讀寫能力

time dd if=/dev/sdb of=/testrw.dbf bs=4k

在這個命令下,一個是物理分區,一個是實際的文件,對它們的讀寫都會產生IO(對/dev/sdb是讀,對/testrw.dbf是寫),假設它們都在一個磁盤中,這個命令就相當于測試磁盤的同時讀寫能力。

1.5 測試純寫入性能

登錄后復制

dd if=/dev/zero of=test bs=8k count=10000 oflag=direct

1.

1.6、測試純讀取性能

dd if=test of=/dev/null bs=8k count=10000 iflag=direct

1.

注意:dd 只能提供一個大概的測試結果,而且是連續 I/O 而不是隨機 I/O,理論上文件規模越大,測試結果越準確。 同時,iflag/oflag 提供 direct 模式,direct 模式是把寫入請求直接封裝成 I/O 指令發到磁盤,非 direct 模式只是把數據寫入到系統緩存就認為 I/O 成功,并由操作系統決定緩存中的數據什么時候被寫入磁盤。

-----------------------------------

Linux 中用 dd 命令來測試硬盤讀寫速度

//blog.51cto.com/moerjinrong/2286323

 

 

 

1.1 主要選項

指定數字的地方若以下列字符結尾乘以相應的數字:

b=512, c=1, k=1024, w=2, xm=number m

 

參數       說明

if=file     輸入文件名,缺省為標準輸入

of=file    輸出文件名,缺省為標準輸出

ibs=bytes      一次讀入 bytes 個字節(即一個塊大小為 bytes 個字節)

obs=bytes     一次寫 bytes 個字節(即一個塊大小為 bytes 個字節)

bs=bytes 同時設置讀寫塊的大小為 bytes ,可代替 ibs obs

cbs=bytes     一次轉換 bytes 個字節,即轉換緩沖區大小

skip=blocks   從輸入文件開頭跳過 blocks 個塊后再開始復制

seek=blocks  從輸出文件開頭跳過 blocks 個塊后再開始復制(通常只有當輸出文件是磁盤或磁帶時才有效)

count=blocks 僅拷貝 blocks 個塊,塊大小等于 ibs 指定的字節數

conv=conversion[,conversion…] 用指定的參數轉換文件

iflag=FLAGS   指定讀的方式FLAGS,參見“FLAGS參數說明

oflag=FLAGS 指定寫的方式FLAGS,參見“FLAGS參數說明

1.2 conv 轉換參數:

-----------------------------------

Linux 中用 dd 命令來測試硬盤讀寫速度

//blog.51cto.com/moerjinrong/2286323

 

 

 

FIO測試方法

1、安裝fio

  在fio官網下載fio-2.1.10.tar文件,解壓后./configuremakemake install之后就可以使用fio了。

2fio參數詳解
filename=/dev/emcpowerb
支持的文件系統或者設備,-filename=/dev/sda2-filename=/dev/sdb
direct=1
測試過程繞過機器自帶的buffer,使測試結果更真實
rw=randwread
測試隨機讀的I/O
rw=randwrite   
測試隨機寫的I/O
rw=randrw
測試隨機混合寫和讀的I/O
rw=read
測試順序讀的I/O
rw=write
測試順序寫的I/O
rw=rw 
測試順序混合寫和讀的I/O
bs=4k
單次io的塊文件大小為4k
bsrange=512-2048
指定數據塊的大小范圍
size=5g
本次的測試文件大小為5g,以每次4kio進行測試
numjobs=30
本次的測試線程為30
runtime=1000
測試時間為1000秒,如果不寫則一直將5g文件分4k每次寫完為止
ioengine=psync 
io引擎使用pync方式
rwmixwrite=30
在混合讀寫的模式下,寫占據30%
group_reporting
關于顯示結果的,匯總每個進程的信息
lockmem=1g
只使用1g內存進行測試
zero_buffers
0初始化系統buffer
nrfiles=8
每個進程生成文件的數量
 

3fio測試場景及生成報告詳解

測試場景:

  100%隨機,100%讀, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100read_4k


  100%隨機,100%寫, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100write_4k


  100%順序,100%讀 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100read_4k


  100%順序,100%寫 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100write_4k


  100%隨機,70%讀,30% 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k



[root@rac01-node02]# fio -filename=/dev/sdc4 -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k_local

randrw_70read_4k_local: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=1

...

fio-2.1.10

Starting 50 threads

Jobs: 21 (f=21): [____m____m_m___m____mmm__mmm__mm_m_mmm_m__m__m_m_m] [3.4% done] [7004KB/2768KB/0KB /s] [1751/692/0 iops] [eta 01h:27m:00s]

randrw_70read_4k_local: (groupid=0, jobs=50): err= 0: pid=13710: Wed May 31 10:23:31 2017

  read : io=1394.2MB, bw=7926.4KB/s, iops=1981, runt=180113msec

    clat (usec): min=39, max=567873, avg=24323.79, stdev=25645.98

     lat (usec): min=39, max=567874, avg=24324.23, stdev=25645.98

    clat percentiles (msec):

     |  1.00th=[    3],  5.00th=[    5], 10.00th=[    6], 20.00th=[    7],

     | 30.00th=[    9], 40.00th=[   12], 50.00th=[   16], 60.00th=[   21],

     | 70.00th=[   27], 80.00th=[   38], 90.00th=[   56], 95.00th=[   75],

     | 99.00th=[  124], 99.50th=[  147], 99.90th=[  208], 99.95th=[  235],

     | 99.99th=[  314]

    bw (KB  /s): min=   15, max=  537, per=2.00%, avg=158.68, stdev=38.08

  write: io=615280KB, bw=3416.8KB/s, iops=854, runt=180113msec

    clat (usec): min=167, max=162537, avg=2054.79, stdev=7665.24

     lat (usec): min=167, max=162537, avg=2055.38, stdev=7665.23

    clat percentiles (usec):

     |  1.00th=[  201],  5.00th=[  227], 10.00th=[  249], 20.00th=[  378],

     | 30.00th=[  548], 40.00th=[  692], 50.00th=[  844], 60.00th=[  996],

     | 70.00th=[ 1160], 80.00th=[ 1304], 90.00th=[ 1720], 95.00th=[ 3856],

     | 99.00th=[40192], 99.50th=[58624], 99.90th=[98816], 99.95th=[123392],

     | 99.99th=[148480]

    bw (KB  /s): min=    6, max=  251, per=2.00%, avg=68.16, stdev=29.18

    lat (usec) : 50=0.01%, 100=0.03%, 250=3.15%, 500=5.00%, 750=5.09%

    lat (usec) : 1000=4.87%

    lat (msec) : 2=9.64%, 4=4.06%, 10=21.42%, 20=18.08%, 50=19.91%

    lat (msec) : 100=7.24%, 250=1.47%, 500=0.03%, 750=0.01%

  cpu          : usr=0.07%, sys=0.21%, ctx=522490, majf=0, minf=7

  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%

     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     issued    : total=r=356911/w=153820/d=0, short=r=0/w=0/d=0

     latency   : target=0, window=0, percentile=100.00%, depth=1

 

Run status group 0 (all jobs):

   READ: io=1394.2MB, aggrb=7926KB/s, minb=7926KB/s, maxb=7926KB/s, mint=180113msec, maxt=180113msec

  WRITE: io=615280KB, aggrb=3416KB/s, minb=3416KB/s, maxb=3416KB/s, mint=180113msec, maxt=180113msec

 

Disk stats (read/write):

  sdc: ios=356874/153927, merge=0/10, ticks=8668598/310288, in_queue=8978582, util=99.99%

 

io=執行了多少MIO

bw=平均IO帶寬
iops=IOPS
runt=
線程運行時間
slat=
提交延遲
clat=
完成延遲
lat=
響應時間
bw=
帶寬
cpu=
利用率
IO depths=io
隊列
IO submit=
單個IO提交要提交的IO
IO complete=Like the above submit number, but for completions instead.
IO issued=The number of read/write requests issued, and how many of them were short.
IO latencies=IO
完延遲的分布


io=總共執行了多少sizeIO
aggrb=group
總帶寬
minb=
最小.平均帶寬.
maxb=
最大平均帶寬.
mint=group
中線程的最短運行時間.
maxt=group
中線程的最長運行時間.


ios=所有group總共執行的IO.
merge=
總共發生的IO合并數.
ticks=Number of ticks we kept the disk busy.
io_queue=
花費在隊列上的總共時間.
util=
磁盤利用率


 
0條評論
0 / 1000
乘風
13文章數
2粉絲數
乘風
13 文章 | 2 粉絲
原創

硬盤IO性能測試的三種方

2024-07-16 09:32:19
314
0
對于I/O的性能測試,基本都是用dd開始的,dd Linux/UNIX 下的一個非常有用的命令,作用是用指定大小的塊拷貝一個文件,并在拷貝的同時進行指定的轉換。它是缺省的工具,也是最簡單的工具,但是沒有并行化,對于SSD不友好。

接著進階的就是IOmeter,在SSD出現之前,IOmeter基本可以滿足大部分工作,除了他的Linux版本的I/O generator在早期的時候對LinuxDirect I/O的支持不好。

之后,就是Fio的出現,在目前所有的性能測試工具中,Fio生成一個IO請求的代價是最小的。

1 dd命令測試方法

1.1參數說明
if=file
輸入文件名,缺省為標準輸入
of=file
輸出文件名,缺省為標準輸出
ibs=bytes
一次讀入 bytes 個字節(即一個塊大小為 bytes 個字節)
obs=bytes
一次寫 bytes 個字節(即一個塊大小為 bytes 個字節)
bs=bytes
同時設置讀寫塊的大小為 bytes ,可代替 ibs obs
cbs=bytes
一次轉換 bytes 個字節,即轉換緩沖區大小
skip=blocks
從輸入文件開頭跳過 blocks 個塊后再開始復制
seek=blocks
從輸出文件開頭跳過 blocks 個塊后再開始復制(通常只有當輸出文件是磁盤或磁帶時才有效)
count=blocks
僅拷貝 blocks 個塊,塊大小等于 ibs 指定的字節數
conv=conversion[,conversion…]
用指定的參數轉換文件
iflag=FLAGS
指定讀的方式FLAGS,參見“FLAGS參數說明
oflag=FLAGS
指定寫的方式FLAGS,參見“FLAGS參數說明
 

1.2 測試磁盤寫能力
dd if=/dev/zero of=/opt/iotest bs=4k count=100000
 

因為/dev/zero是一個偽設備,它只產生空字符流,對它不會產生IO,所以,IO都會集中在of文件中,of文件只用于寫,所以這個命令相當于測試磁盤的寫能力。命令結尾添加oflag=direct將跳過內存緩存,添加oflag=sync將跳過hdd緩存。

1.3 測試磁盤讀能力

dd if=/dev/sdb of=/dev/null bs=4k

因為/dev/sdb是一個物理分區,對它的讀取會產生IO/dev/null是偽設備,相當于黑洞,of到該設備不會產生IO,所以,這個命令的IO只發生在/dev/sdb上,也相當于測試磁盤的讀能力。

1.4 測試同時讀寫能力

time dd if=/dev/sdb of=/testrw.dbf bs=4k

在這個命令下,一個是物理分區,一個是實際的文件,對它們的讀寫都會產生IO(對/dev/sdb是讀,對/testrw.dbf是寫),假設它們都在一個磁盤中,這個命令就相當于測試磁盤的同時讀寫能力。

1.5 測試純寫入性能

登錄后復制

dd if=/dev/zero of=test bs=8k count=10000 oflag=direct

1.

1.6、測試純讀取性能

dd if=test of=/dev/null bs=8k count=10000 iflag=direct

1.

注意:dd 只能提供一個大概的測試結果,而且是連續 I/O 而不是隨機 I/O,理論上文件規模越大,測試結果越準確。 同時,iflag/oflag 提供 direct 模式,direct 模式是把寫入請求直接封裝成 I/O 指令發到磁盤,非 direct 模式只是把數據寫入到系統緩存就認為 I/O 成功,并由操作系統決定緩存中的數據什么時候被寫入磁盤。

-----------------------------------

Linux 中用 dd 命令來測試硬盤讀寫速度

//blog.51cto.com/moerjinrong/2286323

 

 

 

1.1 主要選項

指定數字的地方若以下列字符結尾乘以相應的數字:

b=512, c=1, k=1024, w=2, xm=number m

 

參數       說明

if=file     輸入文件名,缺省為標準輸入

of=file    輸出文件名,缺省為標準輸出

ibs=bytes      一次讀入 bytes 個字節(即一個塊大小為 bytes 個字節)

obs=bytes     一次寫 bytes 個字節(即一個塊大小為 bytes 個字節)

bs=bytes 同時設置讀寫塊的大小為 bytes ,可代替 ibs obs

cbs=bytes     一次轉換 bytes 個字節,即轉換緩沖區大小

skip=blocks   從輸入文件開頭跳過 blocks 個塊后再開始復制

seek=blocks  從輸出文件開頭跳過 blocks 個塊后再開始復制(通常只有當輸出文件是磁盤或磁帶時才有效)

count=blocks 僅拷貝 blocks 個塊,塊大小等于 ibs 指定的字節數

conv=conversion[,conversion…] 用指定的參數轉換文件

iflag=FLAGS   指定讀的方式FLAGS,參見“FLAGS參數說明

oflag=FLAGS 指定寫的方式FLAGS,參見“FLAGS參數說明

1.2 conv 轉換參數:

-----------------------------------

Linux 中用 dd 命令來測試硬盤讀寫速度

//blog.51cto.com/moerjinrong/2286323

 

 

 

FIO測試方法

1、安裝fio

  在fio官網下載fio-2.1.10.tar文件,解壓后./configuremakemake install之后就可以使用fio了。

2fio參數詳解
filename=/dev/emcpowerb
支持的文件系統或者設備,-filename=/dev/sda2-filename=/dev/sdb
direct=1
測試過程繞過機器自帶的buffer,使測試結果更真實
rw=randwread
測試隨機讀的I/O
rw=randwrite   
測試隨機寫的I/O
rw=randrw
測試隨機混合寫和讀的I/O
rw=read
測試順序讀的I/O
rw=write
測試順序寫的I/O
rw=rw 
測試順序混合寫和讀的I/O
bs=4k
單次io的塊文件大小為4k
bsrange=512-2048
指定數據塊的大小范圍
size=5g
本次的測試文件大小為5g,以每次4kio進行測試
numjobs=30
本次的測試線程為30
runtime=1000
測試時間為1000秒,如果不寫則一直將5g文件分4k每次寫完為止
ioengine=psync 
io引擎使用pync方式
rwmixwrite=30
在混合讀寫的模式下,寫占據30%
group_reporting
關于顯示結果的,匯總每個進程的信息
lockmem=1g
只使用1g內存進行測試
zero_buffers
0初始化系統buffer
nrfiles=8
每個進程生成文件的數量
 

3fio測試場景及生成報告詳解

測試場景:

  100%隨機,100%讀, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100read_4k


  100%隨機,100%寫, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100write_4k


  100%順序,100%讀 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100read_4k


  100%順序,100%寫 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100write_4k


  100%隨機,70%讀,30% 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k



[root@rac01-node02]# fio -filename=/dev/sdc4 -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k_local

randrw_70read_4k_local: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=1

...

fio-2.1.10

Starting 50 threads

Jobs: 21 (f=21): [____m____m_m___m____mmm__mmm__mm_m_mmm_m__m__m_m_m] [3.4% done] [7004KB/2768KB/0KB /s] [1751/692/0 iops] [eta 01h:27m:00s]

randrw_70read_4k_local: (groupid=0, jobs=50): err= 0: pid=13710: Wed May 31 10:23:31 2017

  read : io=1394.2MB, bw=7926.4KB/s, iops=1981, runt=180113msec

    clat (usec): min=39, max=567873, avg=24323.79, stdev=25645.98

     lat (usec): min=39, max=567874, avg=24324.23, stdev=25645.98

    clat percentiles (msec):

     |  1.00th=[    3],  5.00th=[    5], 10.00th=[    6], 20.00th=[    7],

     | 30.00th=[    9], 40.00th=[   12], 50.00th=[   16], 60.00th=[   21],

     | 70.00th=[   27], 80.00th=[   38], 90.00th=[   56], 95.00th=[   75],

     | 99.00th=[  124], 99.50th=[  147], 99.90th=[  208], 99.95th=[  235],

     | 99.99th=[  314]

    bw (KB  /s): min=   15, max=  537, per=2.00%, avg=158.68, stdev=38.08

  write: io=615280KB, bw=3416.8KB/s, iops=854, runt=180113msec

    clat (usec): min=167, max=162537, avg=2054.79, stdev=7665.24

     lat (usec): min=167, max=162537, avg=2055.38, stdev=7665.23

    clat percentiles (usec):

     |  1.00th=[  201],  5.00th=[  227], 10.00th=[  249], 20.00th=[  378],

     | 30.00th=[  548], 40.00th=[  692], 50.00th=[  844], 60.00th=[  996],

     | 70.00th=[ 1160], 80.00th=[ 1304], 90.00th=[ 1720], 95.00th=[ 3856],

     | 99.00th=[40192], 99.50th=[58624], 99.90th=[98816], 99.95th=[123392],

     | 99.99th=[148480]

    bw (KB  /s): min=    6, max=  251, per=2.00%, avg=68.16, stdev=29.18

    lat (usec) : 50=0.01%, 100=0.03%, 250=3.15%, 500=5.00%, 750=5.09%

    lat (usec) : 1000=4.87%

    lat (msec) : 2=9.64%, 4=4.06%, 10=21.42%, 20=18.08%, 50=19.91%

    lat (msec) : 100=7.24%, 250=1.47%, 500=0.03%, 750=0.01%

  cpu          : usr=0.07%, sys=0.21%, ctx=522490, majf=0, minf=7

  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%

     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     issued    : total=r=356911/w=153820/d=0, short=r=0/w=0/d=0

     latency   : target=0, window=0, percentile=100.00%, depth=1

 

Run status group 0 (all jobs):

   READ: io=1394.2MB, aggrb=7926KB/s, minb=7926KB/s, maxb=7926KB/s, mint=180113msec, maxt=180113msec

  WRITE: io=615280KB, aggrb=3416KB/s, minb=3416KB/s, maxb=3416KB/s, mint=180113msec, maxt=180113msec

 

Disk stats (read/write):

  sdc: ios=356874/153927, merge=0/10, ticks=8668598/310288, in_queue=8978582, util=99.99%

 

io=執行了多少MIO

bw=平均IO帶寬
iops=IOPS
runt=
線程運行時間
slat=
提交延遲
clat=
完成延遲
lat=
響應時間
bw=
帶寬
cpu=
利用率
IO depths=io
隊列
IO submit=
單個IO提交要提交的IO
IO complete=Like the above submit number, but for completions instead.
IO issued=The number of read/write requests issued, and how many of them were short.
IO latencies=IO
完延遲的分布


io=總共執行了多少sizeIO
aggrb=group
總帶寬
minb=
最小.平均帶寬.
maxb=
最大平均帶寬.
mint=group
中線程的最短運行時間.
maxt=group
中線程的最長運行時間.


ios=所有group總共執行的IO.
merge=
總共發生的IO合并數.
ticks=Number of ticks we kept the disk busy.
io_queue=
花費在隊列上的總共時間.
util=
磁盤利用率


 
文章來自個人專欄
文章 | 訂閱
0條評論
0 / 1000
請輸入你的評論
0
0