全部产品
Search
文档中心

云服务器 ECS:测试ESSD云盘IOPS性能

更新时间:Oct 11, 2024

阿里云ESSD云盘结合25GE网络和RDMA技术,为您提供单盘高达100万的随机读写能力和单路低时延性能。您可以按照本示例配置ESSD云盘性能的压测条件,测试ESSD云盘的IOPS。

压测条件

  • 测试工具:使用FIO。

    说明

    FIO(Flexible I/O Tester)是一个开源的、强大的I/O性能测试工具,可以用来对存储设备进行随机读写、顺序读写等负载测试。

  • 实例规格:推荐使用ecs.g7se.32xlarge。更多信息,请参见存储增强通用型实例规格族g7se

  • 镜像:使用公共镜像中高版本的Linux镜像,本文使用Alibaba Cloud Linux 3。

    说明

    经测试发现部分Linux发行版镜像可能无法达到预期的性能,强烈推荐您使用阿里云官方维护的Alibaba Cloud Linux 3镜像。

  • ESSD云盘:

    • 测试裸盘可以获得较为真实的云盘性能,建议您直接通过FIO压测裸盘进行云盘性能测试。

    • 推荐使用ESSD PL3云盘。关于ESSD云盘的更多信息,请参见ESSD云盘

    重要
    • 虽然测试裸盘可以获得较为真实的块存储盘性能,但会破坏文件系统结构,请在测试前提前创建快照做好数据备份。具体操作,请参见创建快照

    • 强烈建议不要将操作系统所在的系统盘或含有重要数据的云盘作为测试对象,以避免数据丢失。建议在新创建的、无重要数据的数据盘或临时盘上使用工具测试块存储性能。

    • 如果需要对系统盘进行裸盘压测,压测完成后建议重置系统后再部署业务使用,避免压测活动引入的潜在问题,从而确保系统的长期稳定运行。

    • 性能测试结果均在测试环境下获得,仅供参考。在真实生产环境中,受网络环境、并发访问量等因素影响,云盘的性能表现可能存在差异,请您以实际情况为准。

操作步骤

  1. 远程连接ECS实例。

    具体操作,请参见通过密码或密钥认证登录Linux实例

  2. 运行以下命令,安装libaio库和测试工具FIO。

    sudo yum install libaio libaio-devel fio -y
  3. 运行以下命令,切换路径。

    cd /tmp
  4. 运行以下命令,新建test100w.sh脚本。

    sudo vim test100w.sh
  5. test100w.sh中粘贴以下内容。

    关于脚本内容的详细说明,请参见test100w.sh脚本解读

    function RunFio
    {
     numjobs=$1   # 实例中的测试线程数,例如示例中的10
     iodepth=$2   # 同时发出I/O数的上限,例如示例中的64
     bs=$3        # 单次I/O的块文件大小,例如示例中的4k
     rw=$4        # 测试时的读写策略,例如示例中的randwrite
     size=$5
     filename=$6  # 指定测试文件的名称,例如示例中的/dev/your_device
     nr_cpus=`cat /proc/cpuinfo |grep "processor" |wc -l`
     if [ $nr_cpus -lt $numjobs ];then
         echo “Numjobs is more than cpu cores, exit!”
         exit -1
     fi
     let nu=$numjobs+1
     cpulist=""
     for ((i=1;i<10;i++))
     do
         list=`cat /sys/block/your_device/mq/*/cpu_list | awk '{if(i<=NF) print $i;}' i="$i" | tr -d ',' | tr '\n' ','`
         if [ -z $list ];then
             break
         fi
         cpulist=${cpulist}${list}
     done
     spincpu=`echo $cpulist | cut -d ',' -f 2-${nu}`
     echo $spincpu
     fio --ioengine=libaio --runtime=30s --numjobs=${numjobs} --iodepth=${iodepth} --bs=${bs} --size=${size} --rw=${rw} --filename=${filename} --time_based=1 --direct=1 --name=test --group_reporting --cpus_allowed=$spincpu --cpus_allowed_policy=split
    }
    echo 2 > /sys/block/your_device/queue/rq_affinity
    sleep 5
    RunFio 10 128 4k randwrite 1024g /dev/your_device
  6. 因测试环境而异,根据实际情况修改test100w.sh脚本。

    • 请将所有your_device设置为ESSD云盘实际的设备名,例如nvme1n1。

    • 根据实际情况设置RunFio 10 64 4k randwrite /dev/your_device中的10644krandwrite/dev/your_device

    • 如果云盘上的数据丢失不影响业务,可以设置filename=[设备名,例如/dev/vdb];否则,请设置为filename=[具体的文件路径,例如/mnt/test.image]

  7. 运行以下命令,测试ESSD云盘性能。

    sudo sh test100w.sh

    您可以在返回结果中查看IOPS=***内容,表示ESSD云盘的IOPS。image

test100w.sh脚本解读

  • 以下命令将块设备的系统参数rq_affinity取值修改为2

    echo 2 > /sys/block/your_device/queue/rq_affinity

    rq_affinity取值

    取值说明

    1

    表示块设备收到I/O完成(I/O Completion)的事件时,这个I/O被发送回处理这个I/O下发流程的vCPU所在Group上处理。在多线程并发的情况下,I/O Completion就可能集中在某一个vCPU上执行,造成瓶颈,导致性能无法提升。

    2

    表示块设备收到I/O Completion的事件时,这个I/O会在当初下发的vCPU上执行。在多线程并发的情况下,就可以充分发挥各个vCPU的性能。

  • 以下命令分别将几个jobs绑定到不同的CPU Core上。

    fio -ioengine=libaio -runtime=30s -numjobs=${numjobs} -iodepth=${iodepth} -bs=${bs} -rw=${rw} -filename=${filename} -time_based=1 -direct=1 -name=test -group_reporting -cpus_allowed=$spincpu -cpus_allowed_policy=split
    说明

    普通模式下,一个设备(Device)只有一个请求队列(Request-Queue),在多线程并发处理I/O的情况下,这个唯一的Request-Queue就是一个性能瓶颈点。多队列(Multi-Queue)模式下,一个设备(Device)可以拥有多个处理I/O的Request-Queue,充分发挥后端存储的性能。假设您有4个I/O线程,您需要将4个I/O线程分别绑定在不同的Request-Queue对应的CPU Core上,这样就可以充分利用Multi-Queue提升性能。

    参数

    说明

    取值示例

    numjobs

    I/O线程。

    10

    /dev/your_device

    ESSD云盘设备名。

    /dev/nvme1n1

    cpus_allowed_policy

    FIO提供了参数cpus_allowed_policy以及cpus_allowed来绑定vCPU。

    split

    以上命令一共运行了几个jobs,分别绑定在几个CPU Core上,分别对应着不同的Queue_Id。关于如何查看Queue_Id绑定的cpu_core_id,您可以运行如下命令:

    • 运行ls /sys/block/your_device/mq/。其中,your_device是您的设备名,例如nvme1n1。运行该命令查看设备名为vd*云盘的Queue_Id。

    • 运行cat /sys/block/your_device/mq/cpu_list。其中,your_device是您的设备名,例如nvme1n1。运行该命令查看对应设备名为vd*云盘的Queue*绑定到的cpu_core_id。