Alibaba Cloud Container Compute Service (ACS) mendukung berbagai jenis GPU untuk berbagai skenario. Gunakan label alibabacloud.com/gpu-model-series untuk meminta seri model GPU tertentu di kluster Anda. Lihat spesifikasi berikut untuk memilih keluarga instans yang paling sesuai dengan kebutuhan Anda.
GU8TF
Keluarga ini menampilkan GPU komputasi berkinerja tinggi.
96 GB memori per GPU dengan dukungan asli untuk format floating-point FP8, memungkinkan inferensi node tunggal untuk model 70B dan lebih besar.
Dilengkapi interkoneksi NVLink berkecepatan tinggi di antara semua 8 GPU, menjadikannya ideal untuk pelatihan model skala kecil hingga menengah. Menyediakan 1,6 Tbps Remote Direct Memory Access (RDMA) untuk komunikasi internode.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
1 (96 GB) | 2 | 2–16 | 1 | 30–256 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–128 | 1 | ||
22 | 22, 32, 64, 128 | Tidak tersedia | ||
2 (96 GB) | 16 | 16–128 | 1 | 30–512 |
32 | 32, 64, 128, 230 | Tidak tersedia | ||
46 | 64, 128, 230 | Tidak tersedia | ||
4 (96 GB) | 32 | 32, 64, 128, 256 | Tidak tersedia | 30–1.024 |
64 | 64, 128, 256, 460 | Tidak tersedia | ||
92 | 128, 256, 460 | Tidak tersedia | ||
8 (96 GB) | 64 | 64, 128, 256, 512 | Tidak tersedia | 30–2.048 |
128 | 128, 256, 512, 920 | Tidak tersedia | ||
184 | 256, 512, 920 | Tidak tersedia |
GU8TEF
Keluarga ini menampilkan GPU komputasi berkinerja tinggi.
141 GB memori per GPU dengan dukungan asli untuk format floating-point FP8. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model seperti DeepSeek-LLM 67B.
Dilengkapi interkoneksi NVLink berkecepatan tinggi di antara semua 8 GPU, menjadikannya ideal untuk pelatihan model skala kecil hingga menengah. Menyediakan 1,6 Tbps RDMA untuk komunikasi internode.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
1 (141 GB) | 2 | 2–16 | 1 | 30–768 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–128 | 1 | ||
22 | 22, 32, 64, 128, 225 | Tidak tersedia | ||
2 (141 GB) | 16 | 16–128 | 1 | 30–1.536 |
32 | 32, 64, 128, 256 | Tidak tersedia | ||
46 | 64, 128, 256, 450 | Tidak tersedia | ||
4 (141 GB) | 32 | 32, 64, 128, 256 | Tidak tersedia | 30–3.072 |
64 | 64, 128, 256, 512 | Tidak tersedia | ||
92 | 128, 256, 512, 900 | Tidak tersedia | ||
8 (141 GB) | 64 | 64, 128, 256, 512 | Tidak tersedia | 30–6.144 |
128 | 128, 256, 512, 1.024 | Tidak tersedia | ||
184 | 256, 512, 1024, 1.800 | Tidak tersedia |
L20 (GN8IS)
Keluarga ini menampilkan GPU komputasi yang cocok untuk berbagai beban kerja AI.
Mendukung pustaka akselerasi umum seperti TensorRT dan format floating-point FP8. Komunikasi peer-to-peer (P2P) antar GPU diaktifkan.
48 GB memori per GPU. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model 70B dan lebih besar.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
1 (48 GB) | 2 | 2–16 | 1 | 30–256 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–120 | 1 | ||
2 (48 GB) | 16 | 16–128 | 1 | 30–512 |
32 | 32, 64, 128, 230 | Tidak tersedia | ||
4 (48 GB) | 32 | 32, 64, 128, 256 | Tidak tersedia | 30–1.024 |
64 | 64, 128, 256, 460 | Tidak tersedia | ||
8 (48 GB) | 64 | 64, 128, 256, 512 | Tidak tersedia | 30–2.048 |
128 | 128, 256, 512, 920 | Tidak tersedia |
L20X (GX8SF)
Keluarga ini menampilkan GPU komputasi berkinerja tinggi untuk beban kerja AI skala besar.
141 GB memori per GPU. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model yang sangat besar.
Dilengkapi interkoneksi NVLink berkecepatan tinggi di antara semua 8 GPU, menjadikannya ideal untuk pelatihan dan inferensi model besar. Menyediakan 3,2 Tbps RDMA untuk komunikasi internode.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
8 (141 GB) | 184 | 1.800 | Tidak tersedia | 30–6.144 |
P16EN
Keluarga ini menampilkan GPU komputasi berkinerja tinggi.
96 GB memori per GPU dengan dukungan untuk format floating-point FP16. Konfigurasi multi-GPU mendukung inferensi node tunggal untuk model seperti DeepSeek R1.
Dilengkapi interkoneksi 700 GB/dtk berkecepatan tinggi di antara semua 16 GPU, ideal untuk pelatihan model skala kecil hingga menengah. Menyediakan 1,6 Tbps RDMA untuk komunikasi internode.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan |
1 (96 GB) | 2 | 2–16 | 1 | 30 GB–384 GB |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8-64 | 1 | ||
10 | 10–80 | 1 | ||
2 (96 GB) | 4 | 4–32 | 1 | 30 GB–768 GB |
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
16 | 16–128 | 1 | ||
22 | 32, 64, 128, 225 | Tidak tersedia | ||
4 (96 GB) | 8 | 8–64 | 1 | 30 GB–1,5 TB |
16 | 16–128 | 1 | ||
32 | 32, 64, 128, 256 | Tidak tersedia | ||
46 | 64, 128, 256, 450 | Tidak tersedia | ||
8 (96 GB) | 16 | 16–128 | 1 | 30 GB–3 TB |
32 | 32, 64, 128, 256 | Tidak tersedia | ||
64 | 64, 128, 256, 512 | Tidak tersedia | ||
92 | 128, 256, 512, 900 | Tidak tersedia | ||
16 (96 GB) | 32 | 32, 64, 128, 256 | Tidak tersedia | 30 GB–6 TB |
64 | 64, 128, 256, 512 | Tidak tersedia | ||
128 | 128, 256, 512, 1024 | Tidak tersedia | ||
184 | 256, 512, 1.024, 1.800 | Tidak tersedia |
G49E
Keluarga ini menampilkan GPU komputasi yang cocok untuk berbagai beban kerja AI dan grafis.
48 GB memori per GPU dengan dukungan untuk pustaka akselerasi seperti RTX dan TensorRT. Komunikasi P2P antar GPU diaktifkan.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
1 (48 GB) | 2 | 2–16 | 1 | 30–256 |
4 | 4–32 | 1 | ||
6 | 6–48 | 1 | ||
8 | 8–64 | 1 | ||
10 | 10–80 | 1 | ||
12 | 12–96 | 1 | ||
14 | 14–112 | 1 | ||
16 | 16–120 | 1 | ||
2 (48 GB) | 16 | 16–128 | 1 | 30–512 |
32 | 32, 64, 128, 230 | Tidak tersedia | ||
4 (48 GB) | 32 | 32, 64, 128, 256 | Tidak tersedia | 30–1024 |
64 | 64, 128, 256, 460 | Tidak tersedia | ||
8 (48 GB) | 64 | 64, 128, 256, 512 | Tidak tersedia | 30–2.048 |
128 | 128, 256, 512, 920 | Tidak tersedia |
T4
Keluarga ini menampilkan GPU serbaguna berbasis arsitektur Turing, cocok untuk beban kerja inferensi dan grafis.
16 GB memori per GPU dengan bandwidth memori 320 GB/dtk.
Tensor Core presisi variabel mendukung 65 TFLOPS (FP16), 130 TOPS (INT8), dan 260 TOPS (INT4).
Batas sumber daya Pod keluarga node tunggal:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
1 (16 GB) | 2 | 2–8 | 1 | 30–1536 |
4 | 4–16 | 1 | ||
6 | 6–24 | 1 | ||
8 | 8–32 | 1 | ||
10 | 10–40 | 1 | ||
12 | 12–48 | 1 | ||
14 | 14–56 | 1 | ||
16 | 16–64 | 1 | ||
24 | 24, 48, 90 | Tidak tersedia | ||
2 (16 GB) | 16 | 16–64 | 1 | |
24 | 24, 48, 96 | Tidak tersedia | ||
32 | 32, 64, 128 | Tidak tersedia | ||
48 | 48, 96, 180 | Tidak tersedia |
A10
Keluarga ini menampilkan GPU kuat berbasis arsitektur Ampere, cocok untuk pembelajaran mendalam, HPC, dan grafis.
24 GB memori per GPU dan mendukung fitur seperti RTX dan TensorRT.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) |
1 (24 GB) | 2 | 2–8 | 1 | 30–256 |
4 | 4–16 | 1 | ||
6 | 6–24 | 1 | ||
8 | 8–32 | 1 | ||
10 | 10–40 | 1 | ||
12 | 12–48 | 1 | ||
14 | 14–56 | 1 | ||
16 | 16–60 | 1 | ||
2 (24 GB) | 16 | 16–64 | 1 | 30–512 |
32 | 32, 64, 120 | Tidak tersedia | ||
4 (24 GB) | 32 | 32, 64, 128 | Tidak tersedia | 30–1.024 |
64 | 64, 128, 240 | Tidak tersedia | ||
8 (24 GB) | 64 | 64, 128, 256 | Tidak tersedia | 30–2.048 |
128 | 128, 256, 480 | Tidak tersedia |
G59
Keluarga ini menampilkan GPU komputasi yang cocok untuk berbagai beban kerja AI dan HPC.
32 GB memori per GPU dan mendukung fitur seperti RTX dan TensorRT. Komunikasi P2P antar GPU diaktifkan.
Batas sumber daya Pod:
Jumlah GPU (memori per GPU) | vCPU | Opsi memori (GiB) | Peningkatan memori (GiB) | Rentang penyimpanan (GiB) | Bandwidth jaringan |
1 (32 GB) | 2 | 2–16 | 1 | 30–256 | 1 Gbps per vCPU |
4 | 4–32 | 1 | |||
6 | 6–48 | 1 | |||
8 | 8–64 | 1 | |||
10 | 10–80 | 1 | |||
12 | 12–96 | 1 | |||
14 | 14–112 | 1 | |||
16 | 16–128 | 1 | |||
22 | 22, 32, 64, 128 | Tidak tersedia | |||
2 (32 GB) | 16 | 16–128 | 1 | 30–512 | |
32 | 32, 64, 128, 256 | Tidak tersedia | |||
46 | 64, 128, 256, 360 | Tidak tersedia | |||
4 (32 GB) | 32 | 32, 64, 128, 256 | Tidak tersedia | 30–1.024 | |
64 | 64, 128, 256, 512 | Tidak tersedia | |||
92 | 128, 256, 512, 720 | Tidak tersedia | |||
8 (32 GB) | 64 | 64, 128, 256, 512 | Tidak tersedia | 30–2.048 | |
128 | 128, 256, 512, 1.024 | Tidak tersedia | 100 Gbps per vCPU | ||
184 | 256, 512, 1.024, 1.440 | Tidak tersedia |