すべてのプロダクト
Search
ドキュメントセンター

Container Compute Service:ACS でサポートされている GPU インスタンスファミリー

最終更新日:Nov 07, 2025

Alibaba Cloud Container Compute Service (ACS) は、さまざまなシナリオに対応する複数の GPU タイプをサポートしています。クラスターで特定の GPU モデルシリーズをリクエストするには、alibabacloud.com/gpu-model-series ラベルを使用します。ニーズに最適なインスタンスファミリーを選択するには、以下の仕様をご参照ください。

GU8TF

このファミリーは、パフォーマンス専有型コンピューティング GPU を特徴としています。

  • GPU あたり 96 GB のメモリFP8 浮動小数点フォーマットのネイティブサポートにより、70B 以上のモデルのシングルノード推論が可能です。

  • 8 つの GPU すべての間で高速な NVLink 相互接続を特徴とし、small から medium スケールのモデルトレーニングに最適です。ノード間通信には 1.6 Tbps の Remote Direct Memory Access (RDMA) を提供します。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

1 (96 GB)

2

2–16

1

30–256

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–128

1

22

22, 32, 64, 128

N/A

2 (96 GB)

16

16–128

1

30–512

32

32, 64, 128, 230

N/A

46

64, 128, 230

N/A

4 (96 GB)

32

32, 64, 128, 256

N/A

30–1,024

64

64, 128, 256, 460

N/A

92

128, 256, 460

N/A

8 (96 GB)

64

64, 128, 256, 512

N/A

30–2,048

128

128, 256, 512, 920

N/A

184

256, 512, 920

N/A

GU8TEF

このファミリーは、パフォーマンス専有型コンピューティング GPU を特徴としています。

  • GPU あたり 141 GB のメモリFP8 浮動小数点フォーマットのネイティブサポート。マルチ GPU 構成は、DeepSeek-LLM 67B などのモデルのシングルノード推論をサポートします。

  • 8 つの GPU すべての間で高速な NVLink 相互接続を特徴とし、small から medium スケールのモデルトレーニングに最適です。ノード間通信には 1.6 Tbps の RDMA を提供します。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

1 (141 GB)

2

2–16

1

30–768

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–128

1

22

22, 32, 64, 128, 225

N/A

2 (141 GB)

16

16–128

1

30–1,536

32

32, 64, 128, 256

N/A

46

64, 128, 256, 450

N/A

4 (141 GB)

32

32, 64, 128, 256

N/A

30–3,072

64

64, 128, 256, 512

N/A

92

128, 256, 512, 900

N/A

8 (141 GB)

64

64, 128, 256, 512

N/A

30–6,144

128

128, 256, 512, 1,024

N/A

184

256, 512, 1024, 1,800

N/A

L20 (GN8IS)

このファミリーは、幅広い AI ワークロードに適したコンピューティング GPU を特徴としています。

  • TensorRT などの一般的なアクセラレーションライブラリと FP8 浮動小数点フォーマットをサポートします。GPU 間のピアツーピア (P2P) 通信が有効になっています。

  • GPU あたり 48 GB のメモリ。マルチ GPU 構成は、70B 以上のモデルのシングルノード推論をサポートします。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

1 (48 GB)

2

2–16

1

30–256

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–120

1

2 (48 GB)

16

16–128

1

30–512

32

32, 64, 128, 230

N/A

4 (48 GB)

32

32, 64, 128, 256

N/A

30–1,024

64

64, 128, 256, 460

N/A

8 (48 GB)

64

64, 128, 256, 512

N/A

30–2,048

128

128, 256, 512, 920

N/A

L20X (GX8SF)

このファミリーは、large スケールの AI ワークロード向けのパフォーマンス専有型コンピューティング GPU を特徴としています。

  • GPU あたり 141 GB のメモリ。マルチ GPU 構成は、非常に large なモデルのシングルノード推論をサポートします。

  • 8 つの GPU すべての間で高速な NVLink 相互接続を特徴とし、large モデルのトレーニングと推論に最適です。ノード間通信には 3.2 Tbps の RDMA を提供します。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

8 (141 GB)

184

1,800

N/A

30–6,144

P16EN

このファミリーは、パフォーマンス専有型コンピューティング GPU を特徴としています。

  • GPU あたり 96 GB のメモリで、FP16 浮動小数点フォーマットをサポートします。マルチ GPU 構成は、DeepSeek R1 などのモデルのシングルノード推論をサポートします。

  • 16 個の GPU すべての間で 700 GB/s の高速相互接続を特徴とし、small から medium スケールのモデルトレーニングに最適です。ノード間通信には 1.6 Tbps の RDMA を提供します。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ (GiB)

メモリ増分 (GiB)

ストレージ範囲

1 (96 GB)

2

2–16

1

30 GB–384 GB

4

4–32

1

6

6–48

1

8

8-64

1

10

10–80

1

2 (96 GB)

4

4–32

1

30 GB–768 GB

6

6–48

1

8

8–64

1

16

16–128

1

22

32, 64, 128, 225

N/A

4 (96 GB)

8

8–64

1

30 GB–1.5 TB

16

16–128

1

32

32, 64, 128, 256

N/A

46

64, 128, 256, 450

N/A

8 (96 GB)

16

16–128

1

30 GB–3 TB

32

32, 64, 128, 256

N/A

64

64, 128, 256, 512

N/A

92

128, 256, 512, 900

N/A

16 (96 GB)

32

32, 64, 128, 256

N/A

30 GB–6 TB

64

64, 128, 256, 512

N/A

128

128, 256, 512, 1024

N/A

184

256, 512, 1,024, 1,800

N/A

G49E

このファミリーは、幅広い AI およびグラフィックスワークロードに適したコンピューティング GPU を特徴としています。

  • GPU あたり 48 GB のメモリで、RTX や TensorRT などのアクセラレーションライブラリをサポートします。GPU 間の P2P 通信が有効になっています。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

1 (48 GB)

2

2–16

1

30–256

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–120

1

2 (48 GB)

16

16–128

1

30–512

32

32, 64, 128, 230

N/A

4 (48 GB)

32

32, 64, 128, 256

N/A

30–1024

64

64, 128, 256, 460

N/A

8 (48 GB)

64

64, 128, 256, 512

N/A

30–2048

128

128, 256, 512, 920

N/A

T4

このファミリーは、Turing アーキテクチャに基づく汎用 GPU を特徴とし、推論およびグラフィックスワークロードに適しています。

  • GPU あたり 16 GB のメモリ、メモリ帯域幅は 320 GB/s です。

  • 可変精度 Tensor コアは、65 TFLOPS (FP16)、130 TOPS (INT8)、および 260 TOPS (INT4) をサポートします。

シングルノードファミリーの Pod リソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

1 (16 GB)

2

2–8

1

30–1536

4

4–16

1

6

6–24

1

8

8–32

1

10

10–40

1

12

12–48

1

14

14–56

1

16

16–64

1

24

24, 48, 90

N/A

2 (16 GB)

16

16–64

1

24

24, 48, 96

N/A

32

32, 64, 128

N/A

48

48, 96, 180

N/A

A10

このファミリーは、Ampere アーキテクチャに基づく強力な GPU を特徴とし、ディープラーニング、HPC、およびグラフィックスに適しています。

  • GPU あたり 24 GB のメモリで、RTX や TensorRT などの機能をサポートします。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

1 (24 GB)

2

2–8

1

30–256

4

4–16

1

6

6–24

1

8

8–32

1

10

10–40

1

12

12–48

1

14

14–56

1

16

16–60

1

2 (24 GB)

16

16–64

1

30–512

32

32, 64, 120

N/A

4 (24 GB)

32

32, 64, 128

N/A

30–1,024

64

64, 128, 240

N/A

8 (24 GB)

64

64, 128, 256

N/A

30–2,048

128

128, 256, 480

N/A

G59

このファミリーは、さまざまな AI および HPC ワークロードに適したコンピューティング GPU を特徴としています。

  • GPU あたり 32 GB のメモリで、RTX や TensorRT などの機能をサポートします。GPU 間の P2P 通信が有効になっています。

Pod のリソース制約:

GPU 数 (GPU あたりのメモリ)

vCPU

メモリ オプション (GiB)

メモリ増分 (GiB)

ストレージ範囲 (GiB)

ネットワーク帯域幅

1 (32 GB)

2

2–16

1

30–256

vCPU あたり 1 Gbps

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–128

1

22

22,32,64,128

N/A

2 (32 GB)

16

16–128

1

30–512

32

32,64,128,256

N/A

46

64,128,256,360

N/A

4 (32 GB)

32

32,64,128,256

N/A

30–1,024

64

64,128,256,512

N/A

92

128,256,512,720

N/A

8 (32 GB)

64

64,128,256,512

N/A

30–2,048

128

128,256,512,1024

N/A

vCPU あたり 100 Gbps

184

256,512,1024,1440

N/A