Alibaba Cloud Container Compute Service (ACS) は、さまざまなシナリオに対応する複数の GPU タイプをサポートしています。クラスターで特定の GPU モデルシリーズをリクエストするには、alibabacloud.com/gpu-model-series ラベルを使用します。ニーズに最適なインスタンスファミリーを選択するには、以下の仕様をご参照ください。
GU8TF
このファミリーは、パフォーマンス専有型コンピューティング GPU を特徴としています。
GPU あたり 96 GB のメモリと FP8 浮動小数点フォーマットのネイティブサポートにより、70B 以上のモデルのシングルノード推論が可能です。
8 つの GPU すべての間で高速な NVLink 相互接続を特徴とし、small から medium スケールのモデルトレーニングに最適です。ノード間通信には 1.6 Tbps の Remote Direct Memory Access (RDMA) を提供します。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
1 (96 GB) | 2 | 2–16 | 1 | 30–256 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–128 | 1 | ||
22 | 22, 32, 64, 128 | N/A | ||
2 (96 GB) | 16 | 16–128 | 1 | 30–512 |
32 | 32, 64, 128, 230 | N/A | ||
46 | 64, 128, 230 | N/A | ||
4 (96 GB) | 32 | 32, 64, 128, 256 | N/A | 30–1,024 |
64 | 64, 128, 256, 460 | N/A | ||
92 | 128, 256, 460 | N/A | ||
8 (96 GB) | 64 | 64, 128, 256, 512 | N/A | 30–2,048 |
128 | 128, 256, 512, 920 | N/A | ||
184 | 256, 512, 920 | N/A |
GU8TEF
このファミリーは、パフォーマンス専有型コンピューティング GPU を特徴としています。
GPU あたり 141 GB のメモリと FP8 浮動小数点フォーマットのネイティブサポート。マルチ GPU 構成は、DeepSeek-LLM 67B などのモデルのシングルノード推論をサポートします。
8 つの GPU すべての間で高速な NVLink 相互接続を特徴とし、small から medium スケールのモデルトレーニングに最適です。ノード間通信には 1.6 Tbps の RDMA を提供します。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
1 (141 GB) | 2 | 2–16 | 1 | 30–768 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–128 | 1 | ||
22 | 22, 32, 64, 128, 225 | N/A | ||
2 (141 GB) | 16 | 16–128 | 1 | 30–1,536 |
32 | 32, 64, 128, 256 | N/A | ||
46 | 64, 128, 256, 450 | N/A | ||
4 (141 GB) | 32 | 32, 64, 128, 256 | N/A | 30–3,072 |
64 | 64, 128, 256, 512 | N/A | ||
92 | 128, 256, 512, 900 | N/A | ||
8 (141 GB) | 64 | 64, 128, 256, 512 | N/A | 30–6,144 |
128 | 128, 256, 512, 1,024 | N/A | ||
184 | 256, 512, 1024, 1,800 | N/A |
L20 (GN8IS)
このファミリーは、幅広い AI ワークロードに適したコンピューティング GPU を特徴としています。
TensorRT などの一般的なアクセラレーションライブラリと FP8 浮動小数点フォーマットをサポートします。GPU 間のピアツーピア (P2P) 通信が有効になっています。
GPU あたり 48 GB のメモリ。マルチ GPU 構成は、70B 以上のモデルのシングルノード推論をサポートします。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
1 (48 GB) | 2 | 2–16 | 1 | 30–256 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–120 | 1 | ||
2 (48 GB) | 16 | 16–128 | 1 | 30–512 |
32 | 32, 64, 128, 230 | N/A | ||
4 (48 GB) | 32 | 32, 64, 128, 256 | N/A | 30–1,024 |
64 | 64, 128, 256, 460 | N/A | ||
8 (48 GB) | 64 | 64, 128, 256, 512 | N/A | 30–2,048 |
128 | 128, 256, 512, 920 | N/A |
L20X (GX8SF)
このファミリーは、large スケールの AI ワークロード向けのパフォーマンス専有型コンピューティング GPU を特徴としています。
GPU あたり 141 GB のメモリ。マルチ GPU 構成は、非常に large なモデルのシングルノード推論をサポートします。
8 つの GPU すべての間で高速な NVLink 相互接続を特徴とし、large モデルのトレーニングと推論に最適です。ノード間通信には 3.2 Tbps の RDMA を提供します。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
8 (141 GB) | 184 | 1,800 | N/A | 30–6,144 |
P16EN
このファミリーは、パフォーマンス専有型コンピューティング GPU を特徴としています。
GPU あたり 96 GB のメモリで、FP16 浮動小数点フォーマットをサポートします。マルチ GPU 構成は、DeepSeek R1 などのモデルのシングルノード推論をサポートします。
16 個の GPU すべての間で 700 GB/s の高速相互接続を特徴とし、small から medium スケールのモデルトレーニングに最適です。ノード間通信には 1.6 Tbps の RDMA を提供します。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ (GiB) | メモリ増分 (GiB) | ストレージ範囲 |
1 (96 GB) | 2 | 2–16 | 1 | 30 GB–384 GB |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8-64 | 1 | ||
10 | 10–80 | 1 | ||
2 (96 GB) | 4 | 4–32 | 1 | 30 GB–768 GB |
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
16 | 16–128 | 1 | ||
22 | 32, 64, 128, 225 | N/A | ||
4 (96 GB) | 8 | 8–64 | 1 | 30 GB–1.5 TB |
16 | 16–128 | 1 | ||
32 | 32, 64, 128, 256 | N/A | ||
46 | 64, 128, 256, 450 | N/A | ||
8 (96 GB) | 16 | 16–128 | 1 | 30 GB–3 TB |
32 | 32, 64, 128, 256 | N/A | ||
64 | 64, 128, 256, 512 | N/A | ||
92 | 128, 256, 512, 900 | N/A | ||
16 (96 GB) | 32 | 32, 64, 128, 256 | N/A | 30 GB–6 TB |
64 | 64, 128, 256, 512 | N/A | ||
128 | 128, 256, 512, 1024 | N/A | ||
184 | 256, 512, 1,024, 1,800 | N/A |
G49E
このファミリーは、幅広い AI およびグラフィックスワークロードに適したコンピューティング GPU を特徴としています。
GPU あたり 48 GB のメモリで、RTX や TensorRT などのアクセラレーションライブラリをサポートします。GPU 間の P2P 通信が有効になっています。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
1 (48 GB) | 2 | 2–16 | 1 | 30–256 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–120 | 1 | ||
2 (48 GB) | 16 | 16–128 | 1 | 30–512 |
32 | 32, 64, 128, 230 | N/A | ||
4 (48 GB) | 32 | 32, 64, 128, 256 | N/A | 30–1024 |
64 | 64, 128, 256, 460 | N/A | ||
8 (48 GB) | 64 | 64, 128, 256, 512 | N/A | 30–2048 |
128 | 128, 256, 512, 920 | N/A |
T4
このファミリーは、Turing アーキテクチャに基づく汎用 GPU を特徴とし、推論およびグラフィックスワークロードに適しています。
GPU あたり 16 GB のメモリ、メモリ帯域幅は 320 GB/s です。
可変精度 Tensor コアは、65 TFLOPS (FP16)、130 TOPS (INT8)、および 260 TOPS (INT4) をサポートします。
シングルノードファミリーの Pod リソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
1 (16 GB) | 2 | 2–8 | 1 | 30–1536 |
4 | 4–16 | 1 | ||
6 | 6–24 | 1 | ||
8 | 8–32 | 1 | ||
10 | 10–40 | 1 | ||
12 | 12–48 | 1 | ||
14 | 14–56 | 1 | ||
16 | 16–64 | 1 | ||
24 | 24, 48, 90 | N/A | ||
2 (16 GB) | 16 | 16–64 | 1 | |
24 | 24, 48, 96 | N/A | ||
32 | 32, 64, 128 | N/A | ||
48 | 48, 96, 180 | N/A |
A10
このファミリーは、Ampere アーキテクチャに基づく強力な GPU を特徴とし、ディープラーニング、HPC、およびグラフィックスに適しています。
GPU あたり 24 GB のメモリで、RTX や TensorRT などの機能をサポートします。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) |
1 (24 GB) | 2 | 2–8 | 1 | 30–256 |
4 | 4–16 | 1 | ||
6 | 6–24 | 1 | ||
8 | 8–32 | 1 | ||
10 | 10–40 | 1 | ||
12 | 12–48 | 1 | ||
14 | 14–56 | 1 | ||
16 | 16–60 | 1 | ||
2 (24 GB) | 16 | 16–64 | 1 | 30–512 |
32 | 32, 64, 120 | N/A | ||
4 (24 GB) | 32 | 32, 64, 128 | N/A | 30–1,024 |
64 | 64, 128, 240 | N/A | ||
8 (24 GB) | 64 | 64, 128, 256 | N/A | 30–2,048 |
128 | 128, 256, 480 | N/A |
G59
このファミリーは、さまざまな AI および HPC ワークロードに適したコンピューティング GPU を特徴としています。
GPU あたり 32 GB のメモリで、RTX や TensorRT などの機能をサポートします。GPU 間の P2P 通信が有効になっています。
Pod のリソース制約:
GPU 数 (GPU あたりのメモリ) | vCPU | メモリ オプション (GiB) | メモリ増分 (GiB) | ストレージ範囲 (GiB) | ネットワーク帯域幅 |
1 (32 GB) | 2 | 2–16 | 1 | 30–256 | vCPU あたり 1 Gbps |
4 | 4–32 | 1 | |||
6 | 6–48 | 1 | |||
8 | 8–64 | 1 | |||
10 | 10–80 | 1 | |||
12 | 12–96 | 1 | |||
14 | 14–112 | 1 | |||
16 | 16–128 | 1 | |||
22 | 22,32,64,128 | N/A | |||
2 (32 GB) | 16 | 16–128 | 1 | 30–512 | |
32 | 32,64,128,256 | N/A | |||
46 | 64,128,256,360 | N/A | |||
4 (32 GB) | 32 | 32,64,128,256 | N/A | 30–1,024 | |
64 | 64,128,256,512 | N/A | |||
92 | 128,256,512,720 | N/A | |||
8 (32 GB) | 64 | 64,128,256,512 | N/A | 30–2,048 | |
128 | 128,256,512,1024 | N/A | vCPU あたり 100 Gbps | ||
184 | 256,512,1024,1440 | N/A |