All Products
Search
Document Center

Container Service for Kubernetes:Mengelola komponen berbagi GPU

Last Updated:Nov 11, 2025

Container Service for Kubernetes (ACK) menyediakan kemampuan berbagi GPU yang memungkinkan beberapa model berbagi satu GPU dan mendukung isolasi memori GPU berdasarkan driver mode kernel NVIDIA. Jika kluster Anda telah menginstal komponen berbagi GPU tetapi versi driver GPU atau versi sistem operasi pada node tidak kompatibel dengan versi cGPU yang ada di kluster, Anda perlu meningkatkan komponen berbagi GPU ke versi terbaru. Topik ini menjelaskan cara mengelola komponen berbagi GPU pada node yang dipercepat GPU untuk menerapkan kemampuan penjadwalan dan isolasi GPU.

Prasyarat

Batasan

  • Jangan mengatur Kebijakan CPU ke static untuk node tempat berbagi GPU diaktifkan.

  • Untuk menentukan jalur kustom untuk file KubeConfig, jalankan perintah export KUBECONFIG=<kubeconfig>. Perhatikan bahwa perintah kubectl inspect cgpu tidak mendukung parameter --kubeconfig.

  • Jika Anda menggunakan cGPU untuk mengisolasi sumber daya GPU, Anda tidak dapat meminta memori GPU dengan menggunakan Unified Virtual Memory (UVM). Oleh karena itu, Anda tidak dapat meminta memori GPU dengan memanggil cudaMallocManaged() dari API Compute Unified Device Architecture (CUDA). Anda dapat meminta memori GPU dengan menggunakan metode lain, misalnya dengan memanggil cudaMalloc(). Untuk informasi lebih lanjut, lihat Unified Memory for CUDA Beginners.

  • Pod yang dikelola oleh DaemonSet GPU bersama tidak memiliki prioritas tertinggi. Oleh karena itu, sumber daya dapat dijadwalkan ke pod dengan prioritas lebih tinggi, dan node dapat mengeluarkan pod yang dikelola oleh DaemonSet. Untuk mencegah masalah ini, Anda dapat memodifikasi DaemonSet aktual GPU bersama, misalnya dengan memperbarui DaemonSet gpushare-device-plugin-ds yang digunakan untuk berbagi memori GPU dan menetapkan priorityClassName: system-node-critical guna memastikan prioritas pod yang dikelola oleh DaemonSet.

  • Untuk optimalisasi kinerja, maksimal 20 pod dapat dibuat per GPU saat menggunakan cGPU. Jika jumlah pod yang dibuat melebihi batas ini, pod berikutnya yang dijadwalkan ke GPU yang sama akan gagal berjalan dan mengembalikan kesalahan: Error occurs when creating cGPU instance: unknown.

  • Anda dapat menginstal komponen berbagi GPU tanpa batasan wilayah. Namun, isolasi memori GPU hanya didukung di wilayah yang tercantum dalam tabel berikut. Pastikan kluster ACK Anda diterapkan di salah satu wilayah tersebut.

    Wilayah

    Wilayah

    ID

    Tiongkok (Beijing)

    cn-beijing

    Tiongkok (Shanghai)

    cn-shanghai

    Tiongkok (Hangzhou)

    cn-hangzhou

    Tiongkok (Zhangjiakou)

    cn-zhangjiakou

    Tiongkok (Ulanqab)

    cn-wulanchabu

    Tiongkok (Shenzhen)

    cn-shenzhen

    Tiongkok (Chengdu)

    cn-chengdu

    Tiongkok (Heyuan)

    cn-heyuan

    Tiongkok (Hong Kong)

    cn-hongkong

    Jepang (Tokyo)

    ap-northeast-1

    Indonesia (Jakarta)

    ap-southeast-5

    Singapura

    ap-southeast-1

    AS (Virginia)

    us-east-1

    AS (Silicon Valley)

    us-west-1

    Jerman (Frankfurt)

    eu-central-1

  • Persyaratan versi.

    Konfigurasi

    Persyaratan versi

    Versi Kubernetes

    • Jika versi komponen ack-ai-installer lebih rendah dari 1.12.0, Kubernetes 1.18.8 atau yang lebih baru didukung.

    • Jika versi komponen ack-ai-installer adalah 1.12.0 atau yang lebih baru, hanya Kubernetes 1.20 atau yang lebih baru yang didukung.

    Versi driver NVIDIA

    ≥ 418.87.01

    Versi runtime kontainer

    • Docker: ≥ 19.03.5

    • containerd: ≥ 1.4.3

    Sistem operasi

    Alibaba Cloud Linux 3.x (OS yang dioptimalkan kontainer memerlukan versi komponen ack-ai-installer 1.12.6 atau yang lebih baru), Alibaba Cloud Linux 2.x, CentOS 7.6, CentOS 7.7, CentOS 7.9, Ubuntu 22.04

    Model GPU

    Seri NVIDIA P, NVIDIA T, NVIDIA V, NVIDIA A, dan NVIDIA H

Menginstal komponen berbagi GPU

Langkah 1: Menginstal komponen berbagi GPU

Suite AI cloud-native belum diterapkan

  1. Masuk ke Konsol ACK. Di panel navigasi kiri, klik Clusters.

  2. Pada halaman Clusters, temukan kluster yang diinginkan dan klik namanya. Di panel navigasi kiri, pilih Applications > Cloud-native AI Suite.

  3. Pada halaman Cloud-native AI Suite, klik Deploy.

  4. Pada halaman Deploy Cloud-native AI Suite, pilih Ekstensi Kebijakan Penjadwalan (Penjadwalan Tugas Batch, Berbagi GPU, Penjadwalan GPU yang Sadar Topologi).

  5. (Opsional) Klik Advanced di sebelah kanan Scheduling Policy Extension (Batch Task Scheduling, GPU Sharing, Topology-aware GPU Scheduling). Di panel Parameters, modifikasi parameter policy cGPU. Setelah selesai memodifikasi, klik OK.

    Jika Anda tidak memiliki persyaratan untuk fitur berbagi daya komputasi yang disediakan oleh cGPU, kami merekomendasikan agar Anda menggunakan pengaturan default policy: 5, yaitu penjadwalan native. Untuk informasi lebih lanjut tentang kebijakan yang didukung oleh cGPU, lihat Menginstal dan menggunakan cGPU.image

  6. Di bagian bawah halaman Cloud-native AI Suite, klik Deploy Cloud-native AI Suite.

    Setelah komponen diinstal, Anda dapat menemukan komponen berbagi GPU yang telah diinstal ack-ai-installer dalam daftar komponen di halaman Cloud-native AI Suite.

Suite AI cloud-native telah diterapkan

  1. Masuk ke Konsol ACK. Di panel navigasi kiri, klik Clusters.

  2. Pada halaman Clusters, temukan kluster yang diinginkan dan klik namanya. Di panel navigasi kiri, pilih Applications > Cloud-native AI Suite.

  3. Temukan komponen ack-ai-installer, lalu klik Deploy di kolom Actions.

  4. (Opsional) Di panel Parameters, modifikasi parameter policy cGPU.

    Jika Anda tidak memiliki persyaratan untuk fitur berbagi daya komputasi yang disediakan oleh cGPU, kami merekomendasikan agar Anda menggunakan pengaturan default policy: 5, yaitu penjadwalan native. Untuk informasi lebih lanjut tentang kebijakan yang didukung oleh cGPU, lihat Menginstal dan menggunakan cGPU.image

  5. Setelah selesai memodifikasi, klik OK.

    Setelah komponen diinstal, Status ack-ai-installer berubah menjadi Deployed.

Langkah 2: Mengaktifkan berbagi GPU dan isolasi memori GPU

  1. Pada halaman Clusters, temukan kluster yang akan dikelola dan klik namanya. Di panel navigasi kiri, pilih Nodes > Node Pools.

  2. Pada halaman Node Pools, klik Create Node Pool. Untuk informasi lebih lanjut tentang cara mengonfigurasi kelompok node, lihat Membuat dan mengelola kelompok node.

  3. Pada halaman Create Node Pool, konfigurasikan parameter untuk membuat kelompok node dan klik Confirm. Tabel berikut menjelaskan parameter utama:

    Parameter

    Deskripsi

    Expected Nodes

    Jumlah awal node dalam kelompok node. Jika Anda tidak ingin membuat node dalam kelompok node, atur parameter ini ke 0.

    Node Labels

    Tambahkan label berdasarkan kebutuhan bisnis Anda. Untuk informasi lebih lanjut tentang label node, lihat Spesifikasi model node GPU dan panduan label penjadwalan.

    Pada contoh berikut, nilai label diatur ke cgpu, yang menunjukkan bahwa node telah mengaktifkan berbagi GPU. Pod pada node hanya perlu meminta memori GPU. Beberapa pod dapat berbagi GPU yang sama untuk menerapkan isolasi memori GPU dan berbagi daya komputasi.

    Klik ikon Node Label di sebelah Node Label, dan atur Key ke ack.node.gpu.schedule dan Value ke cgpu.

    Penting

Langkah 3: Menambahkan node yang dipercepat GPU

Catatan

Jika Anda telah menambahkan node yang dipercepat GPU ke kelompok node saat membuat kelompok node, lewati langkah ini.

Setelah kelompok node dibuat, Anda dapat menambahkan node yang dipercepat GPU ke kelompok node. Untuk menambahkan node yang dipercepat GPU, Anda perlu mengatur arsitektur untuk tipe instans ke Elastic GPU Service. Untuk informasi lebih lanjut, lihat Menambahkan instans ECS yang ada atau Membuat dan mengelola kelompok node.

Langkah 4: Menginstal dan menggunakan alat inspeksi GPU

  1. Unduh kubectl-inspect-cgpu. File yang dapat dieksekusi harus diunduh ke direktori yang termasuk dalam variabel lingkungan PATH. Dalam contoh ini, /usr/local/bin/ digunakan.

    • Jika Anda menggunakan Linux, jalankan perintah berikut untuk mengunduh kubectl-inspect-cgpu:

      wget http://aliacs-k8s-cn-beijing.oss-cn-beijing.aliyuncs.com/gpushare/kubectl-inspect-cgpu-linux -O /usr/local/bin/kubectl-inspect-cgpu
    • Jika Anda menggunakan macOS, jalankan perintah berikut untuk mengunduh kubectl-inspect-cgpu:

      wget http://aliacs-k8s-cn-beijing.oss-cn-beijing.aliyuncs.com/gpushare/kubectl-inspect-cgpu-darwin -O /usr/local/bin/kubectl-inspect-cgpu
  2. Jalankan perintah berikut untuk memberikan izin eksekusi ke kubectl-inspect-cgpu:

    chmod +x /usr/local/bin/kubectl-inspect-cgpu
  3. Jalankan perintah berikut untuk mengkueri penggunaan GPU kluster:

    kubectl inspect cgpu

    Sistem menampilkan informasi yang mirip dengan keluaran berikut:

    NAME                       IPADDRESS      GPU0(Allocated/Total)  GPU Memory(GiB)
    cn-shanghai.192.168.6.104  192.168.6.104  0/15                   0/15
    ----------------------------------------------------------------------
    Allocated/Total GPU Memory In Cluster:
    0/15 (0%)

Memperbarui komponen berbagi GPU

Langkah 1: Menentukan metode pembaruan untuk komponen berbagi GPU

Anda harus memilih metode pembaruan berdasarkan cara komponen berbagi GPU (ack-ai-installer) diinstal di kluster Anda. Ada dua cara untuk menginstal komponen berbagi GPU.

  • Gunakan suite AI cloud-native (direkomendasikan): Instal komponen berbagi GPU ack-ai-installer di halaman Cloud-native AI Suite.

  • Gunakan Katalog Aplikasi (metode ini tidak tersedia lagi): Instal komponen berbagi GPU ack-ai-installer di halaman Marketplace's App Catalog. Metode instalasi ini tidak tersedia lagi. Namun, untuk komponen yang sudah diinstal menggunakan metode ini, Anda masih dapat memperbaruinya menggunakan metode ini.

    Penting

    Jika Anda menguninstall komponen yang diinstal menggunakan metode ini dari kluster Anda, Anda harus mengaktifkan layanan suite AI cloud-native dan menyelesaikan instalasi saat menginstal ulang komponen tersebut.

Bagaimana cara menentukan metode instalasi komponen berbagi GPU di kluster Anda?

  1. Masuk ke Konsol ACK. Di panel navigasi kiri, klik Clusters.

  2. Pada halaman Clusters, temukan kluster yang diinginkan dan klik namanya. Di panel navigasi kiri, pilih Applications > Cloud-native AI Suite.

  3. Periksa apakah komponen ack-ai-installer diterapkan di halaman Cloud-native AI Suite.

    Jika diterapkan, komponen berbagi GPU diinstal melalui Cloud-native AI Suite. Jika tidak, komponen tersebut diinstal melalui App Catalog.

Langkah 2: Memperbarui komponen

Perbarui melalui suite AI cloud-native

  1. Masuk ke Konsol ACK. Di panel navigasi kiri, klik Clusters.

  2. Pada halaman Clusters, temukan kluster yang diinginkan dan klik namanya. Di panel navigasi kiri, pilih Applications > Cloud-native AI Suite.

  3. Di bagian Components, temukan komponen ack-ai-installer dan klik Upgrade di kolom Actions.

Perbarui melalui Katalog Aplikasi

  1. Masuk ke Konsol ACK. Di panel navigasi kiri, klik Clusters.

  2. Pada halaman Clusters, temukan kluster yang diinginkan dan klik namanya. Di panel navigasi kiri, pilih Applications > Helm.

  3. Di daftar Helm, temukan komponen ack-ai-installer dan klik Update di kolom Actions. Ikuti petunjuk halaman untuk memilih versi chart terbaru dan selesaikan pembaruan komponen.

    Penting

    Jika Anda ingin menyesuaikan konfigurasi chart, konfirmasi pembaruan komponen setelah Anda memodifikasi konfigurasi.

    Setelah pembaruan, periksa daftar Helm untuk memastikan bahwa versi chart komponen ack-ai-installer adalah versi terbaru.

Langkah 3: Memperbarui node yang ada

Setelah komponen ack-ai-installer diperbarui, versi cGPU pada node yang ada tidak diperbarui secara otomatis. Rujuk pada petunjuk berikut untuk menentukan apakah node memiliki isolasi cGPU diaktifkan.

  • Jika kluster Anda berisi node yang dipercepat GPU dengan isolasi cGPU diaktifkan, Anda harus memperbarui versi cGPU pada node yang ada tersebut. Untuk informasi lebih lanjut, lihat Memperbarui versi cGPU pada node.

  • Jika kluster Anda tidak berisi node dengan isolasi cGPU diaktifkan, lewati langkah ini.

    Catatan
    • Jika sebuah node memiliki label ack.node.gpu.schedule=cgpu atau ack.node.gpu.schedule=core_mem, isolasi cGPU diaktifkan pada node tersebut.

    • Memperbarui versi cGPU pada node yang ada memerlukan penghentian semua pod aplikasi pada node tersebut. Lakukan operasi ini selama jam non-sibuk berdasarkan skenario bisnis Anda.