GPU计算型实例具有高性能、高并行计算能力,适用于大规模并行计算场景,可以为您的业务提供更好的计算性能和效率。本文为您介绍云服务器ECS GPU计算型实例规格族的特点,并列出了具体的实例规格。
主售(推荐类型)
在售(如果售罄,建议使用主售的规格族)
GPU计算型实例规格族gn7e
gn7e的特点如下:
您可以根据需要选择不同卡数和不同CPU资源的规格,灵活适应其不同的AI业务需求。
依托第三代神龙架构,VPC和云盘网络带宽相比上一代平均提升一倍。
存储:
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
中小规模的AI训练业务
使用CUDA进行加速的HPC业务
对GPU处理能力或显存容量需求较高的AI推理业务
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用
高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
重要在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。
gn7e包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80GB * 1 | 8 | 300万 | 8 | 8 | 10 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80GB * 4 | 32 | 1200万 | 32 | 8 | 10 |
ecs.gn7e-c16g1.32xlarge | 128 | 1000 | 80GB * 8 | 64 | 2400万 | 32 | 16 | 15 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
在云服务器ECS控制台创建gn7e实例或重启gn7e实例后,系统默认该实例的MIG(Multi-Instance GPU)功能是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。
gn7e实例是否支持开启MIG功能的说明如下所示:
实例规格 | 是否支持开启MIG功能 | 说明 |
ecs.gn7e-c16g1.4xlarge | 是 | 单卡实例支持开启MIG功能。 |
ecs.gn7e-c16g1.16xlarge | 否 | 多卡实例因安全因素不支持开启MIG功能。 |
ecs.gn7e-c16g1.32xlarge | 否 |
GPU计算型实例规格族gn7i
gn7i的特点如下:
依托第三代神龙架构,提供稳定可预期的超高性能。同时通过芯片快速路径加速手段,完成存储、网络性能以及计算稳定性的数量级提升。
计算:
采用NVIDIA A10 GPU卡
创新的Ampere架构
支持RTX、TensorRT等常用加速功能
处理器:2.9 GHz主频的Intel ® Xeon ® 可扩展处理器(Ice Lake),全核睿频3.5 GHz
最大可提供752 GiB内存,相比gn6i大幅提升
存储:
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
配备高性能CPU、内存、GPU,可以处理更多并发AI推理任务,适用于图像识别、语音识别、行为识别业务
支持RTX功能,搭配高主频CPU,提供高性能的3D图形虚拟化能力,适用于远程图形设计、云游戏等高强度图形处理业务
gn7i包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn7i-c8g1.2xlarge | 8 | 30 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 160万 | 8 | 4 | 5 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 300万 | 8 | 8 | 5 |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 600万 | 12 | 8 | 5 |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 * 2 | 24GB * 2 | 32 | 1200万 | 16 | 15 | 5 |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 2400万 | 32 | 15 | 10 |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 900万 | 16 | 8 | 8 |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 1200万 | 16 | 12 | 8 |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 * 2 | 24GB * 2 | 16 | 600万 | 16 | 8 | 30 |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 * 4 | 24GB * 4 | 16 | 600万 | 16 | 8 | 30 |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 * 4 | 24GB * 4 | 32 | 1200万 | 32 | 8 | 30 |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 * 8 | 24GB * 8 | 64 | 2400万 | 32 | 16 | 30 |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 * 8 | 24GB * 8 | 32 | 1200万 | 32 | 8 | 30 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge以及ecs.gn7i-8x.16xlarge实例规格支持更改为ecs.gn7i-c8g1.2xlarge或ecs.gn7i-c16g1.4xlarge实例规格,但不支持更改为ecs.gn7i-c32g1.8xlarge等其他实例规格。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
GPU计算型实例规格族gn7s
gn7s的特点如下:
采用全新的Intel IceLake处理器,同时搭载Nvidia Ampere架构的NVIDIA A30 GPU卡,您可以根据需要选择不同卡数和不同CPU资源的规格,灵活适应不同的AI业务需求。
基于阿里云全新的第三代神龙架构,VPC和云盘网络带宽相比上一代平均提升一倍。
计算:
采用NVIDIA A30 GPU卡
创新的Nvidia Ampere架构
支持MIG(Multi-Instance GPU)功能、加速功能(基于第二代Tensor Cores加速),提供多种业务支持。
处理器:2.9 GHz主频的Intel ® Xeon ® 可扩展处理器(Ice Lake),全核睿频3.5 GHz
容量内存相比上一代实例规格族大幅提升
存储:支持ESSD云盘和ESSD AutoPL云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:配备高性能CPU、内存、GPU,可以处理更多并发AI推理业务需求,适用于图像识别、语音识别、行为识别业务。
gn7s包括的实例规格及指标数据如下表所示:
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 单网卡支持的IPv6地址数 | 多队列 | 弹性网卡 |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 600万 | 1 | 12 | 8 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 600万 | 1 | 12 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 600万 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 * 2 | 24GB * 2 | 32 | 1200万 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1000 | NVIDIA A30 * 4 | 24GB * 4 | 64 | 2400万 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 600万 | 1 | 12 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 600万 | 1 | 12 | 8 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
GPU计算型实例规格族gn7
gn7的特点如下:
存储:
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用
高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
gn7包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40GB * 1 | 4 | 250万 | 4 | 8 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40GB * 4 | 16 | 900万 | 16 | 8 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40GB * 8 | 30 | 1800万 | 16 | 15 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
在云服务器ECS控制台创建gn7实例或重启gn7实例后,系统默认该实例的MIG(Multi-Instance GPU)功能是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。
gn7实例是否支持开启MIG功能的说明如下所示:
实例规格 | 是否支持开启MIG功能 | 说明 |
ecs.gn7-c12g1.3xlarge | 是 | 单卡实例支持开启MIG功能。 |
ecs.gn7-c13g1.13xlarge | 否 | 多卡实例因安全因素不支持开启MIG功能。 |
ecs.gn7-c13g1.26xlarge | 否 |
GPU计算型实例规格族gn6i
gn6i的特点如下:
计算:
GPU加速器:T4
创新的Turing架构
单GPU显存16 GB(GPU显存带宽320 GB/s)
单GPU 2560个CUDA Cores
单GPU多达320个Turing Tensor Cores
可变精度Tensor Cores支持65 TFlops FP16、130 INT8 TOPS、260 INT4 TOPS
处理器与内存配比约为1:4
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)
存储:
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
AI(DL和ML)推理,适合计算机视觉、语音识别、语音合成、NLP、机器翻译、推荐系统
云游戏云端实时渲染
AR和VR的云端实时渲染
重载图形计算或图形工作站
GPU加速数据库
高性能计算
gn6i包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 存储IOPS基准 | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn6i-c4g1.xlarge | 4 | 15 | NVIDIA T4 * 1 | 16GB * 1 | 4 | 50万 | 无 | 2 | 2 | 10 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 * 1 | 16GB * 1 | 5 | 80万 | 无 | 2 | 2 | 10 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 * 1 | 16GB * 1 | 6 | 100万 | 无 | 4 | 3 | 10 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 120万 | 无 | 6 | 4 | 10 |
ecs.gn6i-c40g1.10xlarge | 40 | 155 | NVIDIA T4 * 1 | 16GB * 1 | 10 | 160万 | 无 | 16 | 10 | 10 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 * 2 | 16GB * 2 | 15 | 240万 | 无 | 12 | 6 | 10 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 * 4 | 16GB * 4 | 30 | 480万 | 25万 | 24 | 8 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
GPU计算型实例规格族gn6e
gn6e的特点如下:
计算:
采用NVIDIA V100(32 GB NVLink)GPU卡
GPU加速器:V100(SXM2封装)
创新的Volta架构
单GPU显存32 GB HBM2(GPU显存带宽900 GB/s)
单GPU 5120个CUDA Cores
单GPU 640个Tensor Cores
单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s
处理器与内存配比约为1:8
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)
存储:
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练、推理应用
科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
gn6e包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 * 1 | 32GB * 1 | 5 | 80万 | 8 | 6 | 10 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 * 4 | 32GB * 4 | 16 | 240万 | 8 | 8 | 20 |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 480万 | 16 | 8 | 20 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
GPU计算型实例规格族gn6v
gn6v的特点如下:
计算:
采用NVIDIA V100 GPU卡
GPU加速器:V100(SXM2封装)
创新的Volta架构
单GPU显存16 GB HBM2(GPU显存带宽900 GB/s)
单GPU 5120个CUDA Cores
单GPU 640个Tensor Cores
单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s
处理器与内存配比约为1:4
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)
存储:
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练、推理应用
科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
gn6v包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 存储IOPS基准 | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 * 1 | 16GB * 1 | 2.5 | 80万 | 无 | 4 | 4 | 10 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 * 4 | 16GB * 4 | 10 | 200万 | 无 | 8 | 8 | 20 |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 * 8 | 16GB * 8 | 20 | 250万 | 无 | 16 | 8 | 20 |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 * 8 | 16GB * 8 | 32 | 450万 | 25万 | 16 | 8 | 20 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
GPU计算型弹性裸金属服务器实例规格族ebmgn7e
ebmgn7e的特点如下:
基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备
计算
处理器:基于Intel ® Xeon ®Scalable计算平台,2.9 GHz主频,全核睿频3.5 GHz,支持PCIe 4.0接口
存储
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络
支持IPv6
超高网络性能,2400万PPS网络收发包能力
适用场景
各类深度学习训练开发业务
HPC加速计算和仿真
重要在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。
ebmgn7e包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列(主网卡/辅助网卡) | 弹性网卡 |
ecs.ebmgn7e.32xlarge | 128 | 1024 | 80GB * 8 | 64 | 2400万 | 32/12 | 32 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
MIG(Multi-Instance GPU)功能需要您在ebmgn7e实例启动后自行检查并决定是否开启或关闭,系统无法保证MIG(Multi-Instance GPU)功能是开启或关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。
ebmgn7e实例是否支持开启MIG功能的说明如下所示:
实例规格 | 是否支持开启MIG功能 | 说明 |
ecs.ebmgn7e.32xlarge | 是 | ebmgn7e裸金属实例支持开启MIG功能。 |
GPU计算型弹性裸金属服务器实例规格族ebmgn7i
ebmgn7i的特点如下:
基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备
计算
采用NVIDIA A10 GPU计算卡
创新的Ampere架构
支持vGPU、RTX、TensorRT等常用加速功能
处理器:2.9 GHz主频的Intel ® Xeon ®可扩展处理器(Ice Lake),全核睿频3.5 GHz
存储
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络
支持IPv6
超高网络性能,2400万PPS网络收发包能力
适用场景
配备高性能CPU、内存、GPU,可以处理更多并发AI推理任务,适用于图像识别、语音识别、行为识别业务
支持RTX功能,搭配高主频CPU,提供高性能的3D图形虚拟化能力,适用于远程图形设计、云游戏等高强度图形处理业务
支持RTX功能,搭配高网络带宽和云盘带宽,适用于搭建高性能渲染农场
配备多个GPU,搭配高网络带宽,适用于小规模深度学习训练业务
ebmgn7i包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 |
ecs.ebmgn7i.32xlarge | 128 | 768 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 2400万 | 32 | 32 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
GPU计算型弹性裸金属服务器实例规格族ebmgn7
ebmgn7的特点如下:
基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备
计算
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8269CY(Cascade Lake)
存储
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用
高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
ebmgn7包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.ebmgn7.26xlarge | 104 | 768 | 30 | 1800万 | 16 | 15 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
MIG(Multi-Instance GPU)功能需要您在ebmgn7实例启动后自己检查并决定是否开启或关闭,系统无法保证MIG(Multi-Instance GPU)功能是开启还是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。
ebmgn7实例是否支持开启MIG功能的说明如下所示:
实例规格 | 是否支持开启MIG功能 | 说明 |
ecs.ebmgn7.26xlarge | 是 | ebmgn7裸金属实例支持开启MIG功能。 |
GPU计算型弹性裸金属服务器实例规格族ebmgn6ia
ebmgn6ia的特点如下:
依托第三代神龙架构,通过芯片快速路径加速手段,提供稳定可预期的超高计算、存储和网络性能
采用NVIDIA T4 GPU计算加速器提供GPU加速能力,助力图形和AI业务,搭配容器技术可以提供60路以上虚拟Android终端,并对每路终端显示进行硬件视频转码加速
计算
处理器与内存配比约为1:3
处理器:2.8 GHz主频的Ampere® Altra®处理器,睿频3.0 GHz,原生ARM计算平台为Android服务器提供高效的性能和优秀的App兼容性
存储
I/O优化实例
支持ESSD云盘和ESSD AutoPL云盘
网络:支持IPv6
适用场景:基于Android提供App远端服务,例如云业务在线待机、云手游和云手机、Android业务爬虫
ebmgn6ia包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.ebmgn6ia.20xlarge | 80 | 256 | NVIDIA T4 * 2 | 16GB * 2 | 32 | 2400万 | 32 | 15 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
Ampere® Altra®处理器对操作系统内核版本有一定要求。当您使用该实例规格创建ECS实例时,可以直接选用Alibaba Cloud Linux 3和CentOS 8.4及以上版本的操作系统镜像(建议您使用Alibaba Cloud Linux 3镜像)。如果您需要使用其他操作系统版本,请参见Ampere Altra (TM) Linux Kernel Porting Guide,在指定操作系统的ECS实例中为内核打上相应的补丁,完成之后基于该ECS实例创建自定义镜像,然后再通过自定义镜像创建新的ECS实例时选择该实例规格。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
GPU计算型弹性裸金属服务器实例规格族ebmgn6e
ebmgn6e的特点如下:
基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备
采用NVIDIA V100(32 GB NVLink) GPU计算卡
GPU加速器:V100(SXM2封装)
创新的Volta架构
单GPU显存32 GB HBM2(GPU显存带宽900 GB/s)
单GPU 5120个CUDA Cores
单GPU 640个Tensor Cores
单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 GB/s,总带宽为6×25×2=300 GB/s
计算
处理器与内存配比为1:8
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)
存储
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
网络
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练以及推理应用
科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
ebmgn6e包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.ebmgn6e.24xlarge | 96 | 768 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 480万 | 16 | 15 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
GPU计算型弹性裸金属服务器实例规格族ebmgn6v
ebmgn6v的特点如下:
基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备
采用NVIDIA V100 GPU计算卡
GPU加速器:V100(SXM2封装)
创新的Volta架构
单GPU显存16 GB HBM2(GPU显存带宽900 GB/s)
单GPU 5120个CUDA Cores
单GPU 640个Tensor Cores
单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 GB/s,总带宽为6×25×2=300 GB/s
计算
处理器与内存配比为1:4
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)
存储
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
网络
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景
深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练以及推理应用
科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等
ebmgn6v包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.ebmgn6v.24xlarge | 96 | 384 | NVIDIA V100 * 8 | 16GB * 8 | 30 | 450万 | 8 | 32 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
GPU计算型弹性裸金属服务器实例规格族ebmgn6i
ebmgn6i的特点如下:
基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备
GPU加速器:T4
创新的Turing架构
单GPU显存16 GB(GPU显存带宽320 GB/s)
单GPU 2560个CUDA Cores
单GPU多达320个Turing Tensor Cores
可变精度Tensor Cores支持65 TFlops FP16、130 INT8 TOPS、260 INT4 TOPS
计算
处理器与内存配比为1:4
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake)
存储
I/O优化实例
支持ESSD、ESSD AutoPL云盘、SSD云盘和高效云盘
网络
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景
AI(DL/ML)推理,适合计算机视觉、语音识别、语音合成、NLP、机器翻译、推荐系统
云游戏云端实时渲染
AR/VR的云端实时渲染
重载图形计算或图形工作站
GPU加速数据库
高性能计算
ebmgn6i包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.ebmgn6i.24xlarge | 96 | 384 | NVIDIA T4 * 4 | 16GB * 4 | 30 | 450万 | 8 | 32 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。
GPU计算型超级计算集群实例规格族sccgn6e
如需使用,请提交工单。
sccgn6e的特点如下:
具备弹性裸金属服务器的所有特性。更多信息,请参见弹性裸金属服务器概述。
计算:
GPU加速器:
创新的Volta架构
GPU显存32 GB HBM2
CUDA Cores 5120
Tensor Cores 640
GPU显存带宽900 GB/s
单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s
处理器与内存配比为1:8
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake),计算性能稳定
存储:
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
支持高性能并行文件系统CPFS
网络:
支持IPv6
支持专有网络VPC
支持RoCE V2网络,用于低延迟的RDMA通信
适用场景:
超大规模机器学习集群训练场景
大规模高性能科学计算和仿真计算
大规模数据分析、批量计算、视频编码
sccgn6e包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存(GB) | 网络带宽(Gbit/s) | 网络收发包PPS | RoCE网络(Gbit/s) | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.sccgn6e.24xlarge | 96 | 768.0 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 480万 | 50 | 8 | 32 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
GPU计算型超级计算集群实例规格族sccgn6
sccgn6的特点如下:
具备弹性裸金属服务器的所有特性。更多信息,请参见弹性裸金属服务器概述。
计算:
GPU加速器:V100(SXM2封装)
创新的Volta架构
GPU显存16 GB HBM2
CUDA Cores 5120
Tensor Cores 640
GPU显存带宽900 GB/s
GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s
处理器与内存配比为1:4
处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake),计算性能稳定
存储:
I/O优化实例
支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘
支持高性能并行文件系统CPFS
网络:
支持IPv6
支持专有网络VPC
支持RoCE V2网络,用于低延迟的RDMA通信
适用场景:
超大规模机器学习集群训练场景
大规模高性能科学计算和仿真计算
大规模数据分析、批量计算、视频编码
sccgn6包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | GPU | 网络带宽(Gbit/s) | 网络收发包PPS | RoCE网络(Gbit/s) | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.sccgn6.24xlarge | 96 | 384.0 | NVIDIA V100 * 8 | 30 | 450万 | 50 | 8 | 32 | 10 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。
GPU计算型实例规格族gn5
gn5的特点如下:
计算:
采用NVIDIA P100 GPU卡
多种处理器与内存配比
处理器:2.5 GHz主频的Intel ® Xeon ® E5-2682 v4(Broadwell)
存储:
配备高性能NVMe SSD本地盘
I/O优化实例
仅支持SSD云盘和高效云盘
网络:
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
深度学习
科学计算,例如计算流体动力学、计算金融学、基因组学研究、环境分析
高性能计算、渲染、多媒体编解码及其他服务器端GPU计算工作负载
gn5包括的实例规格及指标数据如下表所示。
实例规格 | vCPU | 内存(GiB) | 本地存储(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn5-c4g1.xlarge | 4 | 30 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 30万 | 1 | 3 | 10 |
ecs.gn5-c8g1.2xlarge | 8 | 60 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 40万 | 1 | 4 | 10 |
ecs.gn5-c4g1.2xlarge | 8 | 60 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 100万 | 2 | 4 | 10 |
ecs.gn5-c8g1.4xlarge | 16 | 120 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 100万 | 4 | 8 | 20 |
ecs.gn5-c28g1.7xlarge | 28 | 112 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 5 | 100万 | 8 | 8 | 20 |
ecs.gn5-c8g1.8xlarge | 32 | 240 | 1760 | NVIDIA P100 * 4 | 16GB * 4 | 10 | 200万 | 8 | 8 | 20 |
ecs.gn5-c28g1.14xlarge | 56 | 224 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 10 | 200万 | 14 | 8 | 20 |
ecs.gn5-c8g1.14xlarge | 54 | 480 | 3520 | NVIDIA P100 * 8 | 16GB * 8 | 25 | 400万 | 14 | 8 | 20 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。
GPU计算型实例规格族gn5i
gn5i的特点如下:
计算:
采用NVIDIA P4 GPU卡
处理器与内存配比为1:4
处理器:2.5 GHz主频的Intel ® Xeon ® E5-2682 v4(Broadwell)
存储:
I/O优化实例
仅支持SSD云盘和高效云盘
网络:
支持IPv6
实例网络性能与计算规格对应(规格越高网络性能越强)
适用场景:
深度学习推理
多媒体编解码等服务器端GPU计算工作负载
gn5i包括的实例规格及指标数据如下:
实例规格 | vCPU | 内存(GiB) | GPU | GPU显存 | 网络带宽(Gbit/s) | 网络收发包PPS | 多队列 | 弹性网卡 | 单网卡私有IP |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 * 1 | 8GB * 1 | 1 | 10万 | 2 | 2 | 6 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 * 1 | 8GB * 1 | 1.5 | 20万 | 2 | 3 | 10 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 * 1 | 8GB * 1 | 2 | 40万 | 4 | 4 | 10 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 * 1 | 8GB * 1 | 3 | 80万 | 4 | 8 | 20 |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 * 2 | 8GB * 2 | 6 | 120万 | 8 | 8 | 20 |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 * 2 | 8GB * 2 | 10 | 200万 | 14 | 8 | 20 |
您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。
指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。