All Products
Search
Document Center

Container Service for Kubernetes:Instal komponen penjadwalan GPU yang memperhatikan topologi

Last Updated:Mar 04, 2026

Instal komponen ack-ai-installer di kluster ACK Anda untuk mengaktifkan penjadwalan GPU yang memperhatikan topologi. Fitur ini memilih kombinasi GPU pada suatu node yang memberikan kecepatan pelatihan optimal berdasarkan topologi fisik perangkat GPU.

Sebelum memulai

Sebelum memulai, pastikan Anda telah memiliki:

Persyaratan versi

ComponentRequired version
Kubernetes1.18.8 atau yang lebih baru
NVIDIA driver418.87.01 atau yang lebih baru
NVIDIA Collective Communications Library (NCCL)2.7 atau yang lebih baru
GPUV100

Sistem operasi yang didukung

  • CentOS 7.6, CentOS 7.7

  • Ubuntu 16.04, Ubuntu 18.04

  • Alibaba Cloud Linux 2, Alibaba Cloud Linux 3

Instal komponen dari Cloud-native AI Suite

  1. Masuk ke ACK console. Di panel navigasi sebelah kiri, klik Clusters.

  2. Pada halaman Clusters, temukan kluster Anda dan klik namanya.

  3. Di panel navigasi sebelah kiri, pilih Applications > Cloud-native AI Suite.

  4. Pada halaman Cloud-native AI Suite, klik Deploy.

  5. Pada bagian Scheduling, pilih Scheduling Policy Extension (Batch Task Scheduling, GPU Sharing, Topology-aware GPU Scheduling), lalu klik Deploy Cloud-native AI Suite. Untuk informasi selengkapnya mengenai parameter, lihat Install the cloud-native AI suite.

  6. Verifikasi bahwa ack-ai-installer muncul dalam daftar Components pada halaman Cloud-native AI Suite.

Note: Jika Anda telah menginstal komponen dari Cloud-native AI Suite, temukan ack-ai-installer dalam daftar Components dan klik Deploy di kolom Actions.

Langkah selanjutnya

Setelah menginstal komponen tersebut, konfigurasikan kebijakan penjadwalan GPU yang memperhatikan topologi untuk beban kerja Anda. Untuk informasi selengkapnya, lihat GPU topology-aware scheduling.