全部产品
Search
文档中心

Container Compute Service:Keluarga Instans GPU yang Didukung oleh ACS

更新时间:Nov 07, 2025

Alibaba Cloud Container Compute Service (ACS) mendukung berbagai jenis GPU untuk berbagai skenario. Gunakan label alibabacloud.com/gpu-model-series untuk meminta seri model GPU tertentu di kluster Anda. Lihat spesifikasi berikut untuk memilih keluarga instans yang paling sesuai dengan kebutuhan Anda.

GU8TF

Keluarga ini menampilkan GPU komputasi berkinerja tinggi.

  • 96 GB memori per GPU dengan dukungan asli untuk format floating-point FP8, memungkinkan inferensi node tunggal untuk model 70B dan lebih besar.

  • Dilengkapi interkoneksi NVLink berkecepatan tinggi di antara semua 8 GPU, menjadikannya ideal untuk pelatihan model skala kecil hingga menengah. Menyediakan 1,6 Tbps Remote Direct Memory Access (RDMA) untuk komunikasi internode.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

1 (96 GB)

2

2–16

1

30–256

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–128

1

22

22, 32, 64, 128

Tidak tersedia

2 (96 GB)

16

16–128

1

30–512

32

32, 64, 128, 230

Tidak tersedia

46

64, 128, 230

Tidak tersedia

4 (96 GB)

32

32, 64, 128, 256

Tidak tersedia

30–1.024

64

64, 128, 256, 460

Tidak tersedia

92

128, 256, 460

Tidak tersedia

8 (96 GB)

64

64, 128, 256, 512

Tidak tersedia

30–2.048

128

128, 256, 512, 920

Tidak tersedia

184

256, 512, 920

Tidak tersedia

GU8TEF

Keluarga ini menampilkan GPU komputasi berkinerja tinggi.

  • 141 GB memori per GPU dengan dukungan asli untuk format floating-point FP8. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model seperti DeepSeek-LLM 67B.

  • Dilengkapi interkoneksi NVLink berkecepatan tinggi di antara semua 8 GPU, menjadikannya ideal untuk pelatihan model skala kecil hingga menengah. Menyediakan 1,6 Tbps RDMA untuk komunikasi internode.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

1 (141 GB)

2

2–16

1

30–768

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–128

1

22

22, 32, 64, 128, 225

Tidak tersedia

2 (141 GB)

16

16–128

1

30–1.536

32

32, 64, 128, 256

Tidak tersedia

46

64, 128, 256, 450

Tidak tersedia

4 (141 GB)

32

32, 64, 128, 256

Tidak tersedia

30–3.072

64

64, 128, 256, 512

Tidak tersedia

92

128, 256, 512, 900

Tidak tersedia

8 (141 GB)

64

64, 128, 256, 512

Tidak tersedia

30–6.144

128

128, 256, 512, 1.024

Tidak tersedia

184

256, 512, 1024, 1.800

Tidak tersedia

L20 (GN8IS)

Keluarga ini menampilkan GPU komputasi yang cocok untuk berbagai beban kerja AI.

  • Mendukung pustaka akselerasi umum seperti TensorRT dan format floating-point FP8. Komunikasi peer-to-peer (P2P) antar GPU diaktifkan.

  • 48 GB memori per GPU. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model 70B dan lebih besar.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

1 (48 GB)

2

2–16

1

30–256

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–120

1

2 (48 GB)

16

16–128

1

30–512

32

32, 64, 128, 230

Tidak tersedia

4 (48 GB)

32

32, 64, 128, 256

Tidak tersedia

30–1.024

64

64, 128, 256, 460

Tidak tersedia

8 (48 GB)

64

64, 128, 256, 512

Tidak tersedia

30–2.048

128

128, 256, 512, 920

Tidak tersedia

L20X (GX8SF)

Keluarga ini menampilkan GPU komputasi berkinerja tinggi untuk beban kerja AI skala besar.

  • 141 GB memori per GPU. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model yang sangat besar.

  • Dilengkapi interkoneksi NVLink berkecepatan tinggi di antara semua 8 GPU, menjadikannya ideal untuk pelatihan dan inferensi model besar. Menyediakan 3,2 Tbps RDMA untuk komunikasi internode.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

8 (141 GB)

184

1.800

Tidak tersedia

30–6.144

P16EN

Keluarga ini menampilkan GPU komputasi berkinerja tinggi.

  • 96 GB memori per GPU dengan dukungan untuk format floating-point FP16. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model seperti DeepSeek R1.

  • Dilengkapi interkoneksi 700 GB/dtk berkecepatan tinggi di antara semua 16 GPU, ideal untuk pelatihan model skala kecil hingga menengah. Menyediakan 1,6 Tbps RDMA untuk komunikasi internode.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan

1 (96 GB)

2

2–16

1

30 GB–384 GB

4

4–32

1

6

6–48

1

8

8-64

1

10

10–80

1

2 (96 GB)

4

4–32

1

30 GB–768 GB

6

6–48

1

8

8–64

1

16

16–128

1

22

32, 64, 128, 225

Tidak tersedia

4 (96 GB)

8

8–64

1

30 GB–1,5 TB

16

16–128

1

32

32, 64, 128, 256

Tidak tersedia

46

64, 128, 256, 450

Tidak tersedia

8 (96 GB)

16

16–128

1

30 GB–3 TB

32

32, 64, 128, 256

Tidak tersedia

64

64, 128, 256, 512

Tidak tersedia

92

128, 256, 512, 900

Tidak tersedia

16 (96 GB)

32

32, 64, 128, 256

Tidak tersedia

30 GB–6 TB

64

64, 128, 256, 512

Tidak tersedia

128

128, 256, 512, 1024

Tidak tersedia

184

256, 512, 1.024, 1.800

Tidak tersedia

G49E

Keluarga ini menampilkan GPU komputasi yang cocok untuk berbagai beban kerja AI dan grafis.

  • 48 GB memori per GPU dengan dukungan untuk pustaka akselerasi seperti RTX dan TensorRT. Komunikasi P2P antar GPU diaktifkan.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

1 (48 GB)

2

2–16

1

30–256

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–120

1

2 (48 GB)

16

16–128

1

30–512

32

32, 64, 128, 230

Tidak tersedia

4 (48 GB)

32

32, 64, 128, 256

Tidak tersedia

30–1024

64

64, 128, 256, 460

Tidak tersedia

8 (48 GB)

64

64, 128, 256, 512

Tidak tersedia

30–2.048

128

128, 256, 512, 920

Tidak tersedia

T4

Keluarga ini menampilkan GPU serbaguna berbasis arsitektur Turing, cocok untuk beban kerja inferensi dan grafis.

  • 16 GB memori per GPU dengan bandwidth memori 320 GB/dtk.

  • Tensor Core presisi variabel mendukung 65 TFLOPS (FP16), 130 TOPS (INT8), dan 260 TOPS (INT4).

Batas sumber daya Pod keluarga node tunggal:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

1 (16 GB)

2

2–8

1

30–1536

4

4–16

1

6

6–24

1

8

8–32

1

10

10–40

1

12

12–48

1

14

14–56

1

16

16–64

1

24

24, 48, 90

Tidak tersedia

2 (16 GB)

16

16–64

1

24

24, 48, 96

Tidak tersedia

32

32, 64, 128

Tidak tersedia

48

48, 96, 180

Tidak tersedia

A10

Keluarga ini menampilkan GPU kuat berbasis arsitektur Ampere, cocok untuk pembelajaran mendalam, HPC, dan grafis.

  • 24 GB memori per GPU dan mendukung fitur seperti RTX dan TensorRT.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

1 (24 GB)

2

2–8

1

30–256

4

4–16

1

6

6–24

1

8

8–32

1

10

10–40

1

12

12–48

1

14

14–56

1

16

16–60

1

2 (24 GB)

16

16–64

1

30–512

32

32, 64, 120

Tidak tersedia

4 (24 GB)

32

32, 64, 128

Tidak tersedia

30–1.024

64

64, 128, 240

Tidak tersedia

8 (24 GB)

64

64, 128, 256

Tidak tersedia

30–2.048

128

128, 256, 480

Tidak tersedia

G59

Keluarga ini menampilkan GPU komputasi yang cocok untuk berbagai beban kerja AI dan HPC.

  • 32 GB memori per GPU dan mendukung fitur seperti RTX dan TensorRT. Komunikasi P2P antar GPU diaktifkan.

Batas sumber daya Pod:

Jumlah GPU (memori per GPU)

vCPU

Opsi memori (GiB)

Peningkatan memori (GiB)

Rentang penyimpanan (GiB)

Bandwidth jaringan

1 (32 GB)

2

2–16

1

30–256

1 Gbps per vCPU

4

4–32

1

6

6–48

1

8

8–64

1

10

10–80

1

12

12–96

1

14

14–112

1

16

16–128

1

22

22, 32, 64, 128

Tidak tersedia

2 (32 GB)

16

16–128

1

30–512

32

32, 64, 128, 256

Tidak tersedia

46

64, 128, 256, 360

Tidak tersedia

4 (32 GB)

32

32, 64, 128, 256

Tidak tersedia

30–1.024

64

64, 128, 256, 512

Tidak tersedia

92

128, 256, 512, 720

Tidak tersedia

8 (32 GB)

64

64, 128, 256, 512

Tidak tersedia

30–2.048

128

128, 256, 512, 1.024

Tidak tersedia

100 Gbps per vCPU

184

256, 512, 1.024, 1.440

Tidak tersedia