All Products
Search
Document Center

Container Compute Service:Percepat pembuatan video Wan2.1 dengan DeepGPU

Last Updated:Mar 27, 2026

Container Compute Service (ACS) menyediakan Komputasi GPU sesuai permintaan tanpa mengharuskan Anda mengelola perangkat keras atau konfigurasi node yang mendasarinya. ACS mudah diterapkan, mendukung penagihan bayar sesuai penggunaan, dan ideal untuk tugas inferensi model bahasa besar (LLM), yang membantu mengurangi biaya inferensi. Panduan ini akan memandu Anda melalui penerapan layanan ComfyUI di ACS dan penggunaan plugin deepgpu-comfyui untuk mempercepat pembuatan video teks-ke-video dan gambar-ke-video Wan2.1.

Pada akhir panduan ini, Anda akan:

  • Mengunduh file model Wan2.1 ke volume NAS persisten

  • Menyebarlayankan layanan ComfyUI pada kluster GPU ACS

  • Menjalankan alur kerja teks-ke-video yang dipercepat menggunakan node ApplyDeepyTorch

Latar Belakang

ComfyUI

ComfyUI adalah UI berbasis node sumber terbuka untuk menjalankan dan menyesuaikan pipeline Stable Diffusion. Alih-alih menulis kode, Anda membangun alur kerja generasi dengan menghubungkan node pada kanvas visual.

Model Wan

Tongyi Wanxiang, juga dikenal sebagai Wan, adalah model Seni AI dan teks-ke-gambar (AI-Generated Content (AIGC)) dari Tongyi Lab Alibaba. Model ini merupakan cabang generasi visual dari rangkaian model besar Tongyi Qianwen. Wan adalah model Seni AI pertama di dunia yang mendukung prompt dalam bahasa Tiongkok. Model ini memiliki kemampuan multimodal dan dapat menghasilkan karya seni berkualitas tinggi dari deskripsi teks, sketsa tangan, atau style transfer gambar.

Node ApplyDeepyTorch

Node ApplyDeepyTorch termasuk dalam plugin deepgpu-comfyui. Node ini mengoptimalkan kinerja inferensi model penyebaran dengan menerapkan akselerasi DeepGPU. Sisipkan node ini setelah node terakhir yang memuat model dalam alur kerja Anda — misalnya, setelah node Load Diffusion Model, Load Checkpoint, atau LoraLoaderModelOnly.

Prasyarat

Sebelum memulai, pastikan Anda telah:

  • Mendapatkan otorisasi akun ACS. Jika ini pertama kalinya Anda menggunakan ACS, tetapkan role default agar ACS dapat mengakses Elastic Compute Service (ECS), Object Storage Service (OSS), Apsara File Storage NAS, Cloud Parallel File Storage (CPFS), dan Server Load Balancer (SLB). Untuk detailnya, lihat Panduan cepat untuk pengguna ACS pertama kali.

  • Memiliki kluster GPU ACS dengan kartu GPU L20 (GN8IS) atau G49E.

  • Memiliki volume persisten NAS atau OSS untuk menyimpan file model. Panduan ini menggunakan volume NAS. Untuk instruksi penyiapan, lihat Buat sistem file NAS sebagai volume atau Gunakan volume OSS yang disediakan secara statis.

  • Menginstal Git di lingkungan lokal Anda. Lihat Unduhan Git.

Langkah 1: Siapkan data model

Jalankan perintah berikut di direktori tempat volume NAS dipasang.

  1. Klon repositori ComfyUI.

    git clone https://github.com/comfyanonymous/ComfyUI.git
  2. Unduh tiga file model Wan2.1 ke direktori ComfyUI yang sesuai. File-file tersebut dihosting di proyek Wan_2.1_ComfyUI_repackaged di ModelScope.

    • Model penyebaran (wan2.1_t2v_14B_fp16.safetensors):

      cd ComfyUI/models/diffusion_models
      wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/diffusion_models/wan2.1_t2v_14B_fp16.safetensors
    • VAE (wan_2.1_vae.safetensors):

      cd ComfyUI/models/vae
      wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/vae/wan_2.1_vae.safetensors
    • Penyandi teks (umt5_xxl_fp8_e4m3fn_scaled.safetensors):

      cd ComfyUI/models/text_encoders
      wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
    Pengunduhan memerlukan waktu sekitar 30 menit. Jika koneksi Anda lambat, tingkatkan bandwidth publik puncak sebelum memulai.
  3. Unduh dan ekstrak plugin ComfyUI-deepgpu.

    cd ComfyUI/custom_nodes
    wget https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/nodes/20250513/ComfyUI-deepgpu.tar.gz
    tar zxf ComfyUI-deepgpu.tar.gz

Langkah 2: Terapkan layanan ComfyUI

  1. Login ke Konsol ACS. Di panel navigasi kiri, pilih Clusters. Klik nama kluster target. Lalu pilih Workloads > Deployments dan klik Create from YAML.

  2. Tempel manifes YAML berikut dan klik Create.

    Ganti persistentVolumeClaim.claimName dengan nama klaim volume persisten (PVC) Anda. Contoh ini menggunakan image inference-nv-pytorch 25.07 dari wilayah cn-beijing untuk meminimalkan waktu tarik image. Untuk menggunakan image ini dari wilayah lain, lihat Metode penggunaan dan perbarui path image dalam manifes. Gambar kontainer pada contoh ini telah memiliki plugin deepgpu-torch dan deepgpu-comfyui yang pra-instal. Untuk menggunakan plugin ini di lingkungan kontainer berbeda, hubungi solution architect (SA) untuk mendapatkan paket instalasi.
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        app: wanx-deployment
      name: wanx-deployment-test
      namespace: default
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: wanx-deployment
      template:
        metadata:
          labels:
            alibabacloud.com/compute-class: gpu
            alibabacloud.com/compute-qos: default
            alibabacloud.com/gpu-model-series: L20 #Jenis kartu GPU yang didukung: L20 (instans GN8IS), G49E
            app: wanx-deployment
        spec:
          containers:
          - command:
            - sh
            - -c
            - DEEPGPU_PUB_LS=true python3 /mnt/ComfyUI/main.py --listen 0.0.0.0 --port 7860
            image: acs-registry-vpc.cn-beijing.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.07-vllm0.9.2-pytorch2.7-cu128-20250714-serverless
            imagePullPolicy: Always
            name: main
            resources:
              limits:
                nvidia.com/gpu: "1"
                cpu: "16"
                memory: 64Gi
              requests:
                nvidia.com/gpu: "1"
                cpu: "16"
                memory: 64Gi
            terminationMessagePath: /dev/termination-log
            terminationMessagePolicy: File
            volumeMounts:
            - mountPath: /dev/shm
              name: cache-volume
            - mountPath: /mnt #/mnt adalah path dalam pod tempat klaim volume NAS dipetakan
              name: data
          dnsPolicy: ClusterFirst
          restartPolicy: Always
          schedulerName: default-scheduler
          securityContext: {}
          terminationGracePeriodSeconds: 30
          volumes:
          - emptyDir:
              medium: Memory
              sizeLimit: 500G
            name: cache-volume
          - name: data
            persistentVolumeClaim:
              claimName: wanx-nas #wanx-nas adalah klaim volume yang dibuat dari volume NAS
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: wanx-test
    spec:
      type: LoadBalancer
      ports:
        - port: 7860
          protocol: TCP
          targetPort: 7860
      selector:
        app: wanx-deployment

    Parameter utama dalam manifes ini:

    ParameterDeskripsi
    alibabacloud.com/gpu-model-seriesJenis kartu GPU. Nilai yang didukung: L20 (instans GN8IS) dan G49E.
    nvidia.com/gpu: "1"Meminta satu GPU untuk kontainer.
    resources.limits/requestsMenetapkan CPU menjadi 16 core dan memori menjadi 64 GiB.
    /dev/shm emptyDir (sizeLimit: 500G)Volume memori bersama yang dipasang di /dev/shm. Diperlukan untuk inferensi model besar.
    mountPath: /mntPath di dalam pod tempat volume NAS dipasang. File ComfyUI dan model diakses dari path ini.
    persistentVolumeClaim.claimNameNama PVC Anda. Ganti wanx-nas dengan nama PVC aktual Anda.
  3. Pada dialog yang muncul, klik View untuk membuka halaman detail workload. Klik tab Logs. Saat layanan berhasil dimulai, output log akan tampak seperti ini:

    image

Langkah 3: Akses antarmuka ComfyUI

  1. Pada halaman detail workload, klik tab Access Method untuk mendapatkan titik akhir eksternal layanan, misalnya 8.xxx.xxx.114:7860.

    image

  2. Buka http://8.xxx.xxx.114:7860/ di browser.

    Pertama kali mengakses URL tersebut, mungkin memerlukan waktu sekitar 5 menit untuk dimuat.
  3. Pada antarmuka ComfyUI, klik kanan di mana saja lalu klik Add Node untuk menelusuri node DeepGPU yang tersedia dari plugin. Node ApplyDeepyTorch mengoptimalkan inferensi model penyebaran dengan menerapkan akselerasi tingkat GPU. Sisipkan node ini setelah node terakhir yang memuat model dalam alur kerja Anda. Tampilan node tersebut seperti berikut:

    image

    image.png

Langkah 4: Jalankan alur kerja yang dipercepat

Unduh satu atau kedua alur kerja Wan2.1 berikut ke mesin lokal Anda:

  • Alur kerja gambar-ke-video: https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_image_to_video_wan_1.3b_deepytorch.json

  • Alur kerja teks-ke-video: https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_text_to_video_wan_deepytorch.json

Langkah-langkah berikut menggunakan alur kerja teks-ke-video yang dipercepat sebagai contoh.

  1. Di ComfyUI, pilih Workflow > Open lalu pilih file workflow_text_to_video_wan_deepytorch.json yang telah diunduh.

  2. Temukan node Apply DeepyTorch to diffusion model. Atur parameter enable-nya menjadi true.

    Alur kerja yang dipercepat DeepyTorch menyisipkan node ApplyDeepyTorch setelah node Load Diffusion Model.

    image.png

  3. Klik Run dan tunggu hingga video dihasilkan.

  4. Klik tombol Queue di sebelah kiri untuk melihat waktu pembuatan dan pratinjau output.

    Jalur pertama memerlukan waktu lebih lama daripada jalur berikutnya karena model melakukan pemanasan. Jalankan alur kerja dua atau tiga kali lagi untuk melihat kinerja yang stabil.

    image

  5. (Opsional) Untuk membandingkan waktu pembuatan tanpa akselerasi, restart layanan ComfyUI dan jalankan alur kerja tanpa akselerasi: https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_text_to_video_wan.json