全部产品
Search
文档中心

Container Compute Service:Percepat pembuatan video Wan2.1 dengan DeepGPU

更新时间:Nov 10, 2025

Container Compute Service (ACS) menyediakan daya komputasi GPU tanpa perlu mengelola perangkat keras dasar atau konfigurasi node. ACS mudah digunakan, mendukung penagihan bayar sesuai penggunaan, dan ideal untuk tugas inferensi model bahasa besar (LLM), membantu mengurangi biaya inferensi. Topik ini menjelaskan cara menggunakan daya komputasi GPU dari ACS dengan plugin deepgpu-comfyui untuk mempercepat pembuatan video Wan2.1.

Informasi latar belakang

ComfyUI

ComfyUI adalah antarmuka pengguna grafis berbasis node (GUI) untuk menjalankan dan menyesuaikan Stable Diffusion, model teks-ke-gambar populer. Menggunakan bagan alir visual atau alur kerja, ComfyUI memungkinkan pengguna membangun pipa pembuatan gambar kompleks dengan menyeret dan melepas node, tanpa perlu menulis kode.

Model Wan

Tongyi Wanxiang, juga dikenal sebagai Wan, adalah model AI art dan teks-ke-gambar (AI-Generated Content (AIGC)) besar dari Alibaba's Tongyi Lab. Ini merupakan cabang generasi visual dari seri model besar Tongyi Qianwen. Wan adalah model AI art pertama di dunia yang mendukung prompt dalam bahasa Cina. Model ini memiliki kemampuan multimodal dan dapat menghasilkan karya seni berkualitas tinggi dari deskripsi teks, sketsa tangan, atau transfer gaya gambar.

Prasyarat

  • Saat pertama kali menggunakan Container Compute Service (ACS), Anda perlu memberikan peran default ke akun. Setelah otorisasi selesai, ACS dapat memanggil layanan lain seperti ECS, OSS, NAS, CPFS, dan SLB, membuat kluster, serta menyimpan log. Untuk informasi lebih lanjut, lihat Panduan Cepat untuk Pengguna ACS Pertama Kali.

  • Jenis kartu GPU yang didukung: L20 (GN8IS) dan G49E.

Prosedur

Langkah 1: Siapkan data model

Buat volume NAS atau OSS untuk menyimpan file model secara persisten. Topik ini menggunakan volume NAS sebagai contoh. Jalankan perintah berikut di direktori tempat volume NAS dipasang.

Untuk informasi lebih lanjut tentang cara membuat volume persisten, lihat Buat Sistem File NAS sebagai Volume atau Gunakan Volume OSS yang Disediakan Secara Statis.
  1. Jalankan perintah berikut untuk mengunduh ComfyUI.

    Pastikan bahwa Git telah terinstal di lingkungan Anda.
    git clone https://github.com/comfyanonymous/ComfyUI.git
  2. Jalankan perintah berikut untuk mengunduh tiga file model berikut ke direktori yang sesuai di ComfyUI. Untuk informasi lebih lanjut tentang model-model tersebut, lihat proyek Wan_2.1_ComfyUI_repackaged.

    Untuk memastikan unduhan lancar, Anda mungkin perlu meningkatkan bandwidth publik puncak. Unduhan diperkirakan memakan waktu sekitar 30 menit.
    1. File wan2.1_t2v_14B_fp16.safetensors

      cd ComfyUI/models/diffusion_models
      wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/diffusion_models/wan2.1_t2v_14B_fp16.safetensors 
    2. File wan_2.1_vae.safetensors

      cd ComfyUI/models/vae
      wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/vae/wan_2.1_vae.safetensors
    3. File umt5_xxl_fp8_e4m3fn_scaled.safetensors

      cd ComfyUI/models/text_encoders
      wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
  3. Unduh dan ekstrak ComfyUI-deepgpu.

    cd ComfyUI/custom_nodes
    wget https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/nodes/20250513/ComfyUI-deepgpu.tar.gz
    tar zxf ComfyUI-deepgpu.tar.gz

Langkah 2: Terapkan layanan ComfyUI

  1. Masuk ke Konsol Layanan Komputasi Kontainer. Di panel navigasi di sebelah kiri, pilih Cluster List. Klik nama kluster target. Di panel navigasi di sebelah kiri, pilih Workloads > Stateless. Di sudut kanan atas, klik Create From YAML.

  2. Topik ini menggunakan pemasangan volume NAS sebagai contoh. Gunakan template YAML berikut dan klik Create.

    Ubah nilai persistentVolumeClaim.claimName agar sesuai dengan nama klaim volume persisten (PVC) Anda.
    Contoh ini menggunakan inference-nv-pytorch 25.07 gambar. Untuk informasi lebih lanjut tentang penggunaan gambar ini di dokumen cn-beijingPenggunaan.
    Gambar kontainer uji yang digunakan dalam contoh ini memiliki plugin deepgpu-torch dan deepgpu-comfyui pra-instal. Untuk menggunakan plugin ini di lingkungan kontainer lainnya, hubungi arsitek solusi (SA) untuk mendapatkan paket instalasi.
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        app: wanx-deployment
      name: wanx-deployment-test
      namespace: default
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: wanx-deployment
      template:
        metadata:
          labels:
            alibabacloud.com/compute-class: gpu
            alibabacloud.com/compute-qos: default
            alibabacloud.com/gpu-model-series: L20 #Jenis kartu GPU yang didukung: L20 (GN8IS), G49E
            app: wanx-deployment
        spec:
          containers:
          - command:
            - sh
            - -c
            - DEEPGPU_PUB_LS=true python3 /mnt/ComfyUI/main.py --listen 0.0.0.0 --port 7860
            image: acs-registry-vpc.cn-beijing.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.07-vllm0.9.2-pytorch2.7-cu128-20250714-serverless
            imagePullPolicy: Always
            name: main
            resources:
              limits:
                nvidia.com/gpu: "1"
                cpu: "16"
                memory: 64Gi
              requests:
                nvidia.com/gpu: "1"
                cpu: "16"
                memory: 64Gi
            terminationMessagePath: /dev/termination-log
            terminationMessagePolicy: File
            volumeMounts:
            - mountPath: /dev/shm
              name: cache-volume
            - mountPath: /mnt #/mnt adalah jalur di pod tempat klaim volume NAS dipetakan
              name: data
          dnsPolicy: ClusterFirst
          restartPolicy: Always
          schedulerName: default-scheduler
          securityContext: {}
          terminationGracePeriodSeconds: 30
          volumes:
          - emptyDir:
              medium: Memory
              sizeLimit: 500G
            name: cache-volume
          - name: data
            persistentVolumeClaim:
              claimName: wanx-nas #wanx-nas adalah klaim volume yang dibuat dari volume NAS
    
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: wanx-test
    spec:
      type: LoadBalancer
      ports:
        - port: 7860
          protocol: TCP
          targetPort: 7860
      selector:
        app: wanx-deployment
  3. Di kotak dialog yang muncul, klik View untuk masuk ke halaman detail beban kerja. Klik tab Logs. Jika keluaran berikut ditampilkan, layanan telah dimulai dengan sukses.

    image

Langkah 3: Pelajari cara menggunakan plugin

  1. Klik tab Access Method untuk mendapatkan External Endpoint dari layanan, seperti 8.xxx.xxx.114:7860.

    image

  2. Akses URL ComfyUI http://8.xxx.xxx.114:7860/ di browser. Di antarmuka ComfyUI, klik kanan lalu klik Add Node untuk melihat node DeepGPU yang termasuk dalam plugin.

    Pertama kali Anda mengakses URL, mungkin memerlukan waktu sekitar 5 menit untuk memuat.

    image

    ApplyDeepyTorch node

    Node ApplyDeepyTorch mengoptimalkan kinerja inferensi model. Biasanya disisipkan setelah node pemrosesan model terakhir dalam alur kerja, seperti Load Diffusion Model, Load Checkpoint, atau LoraLoaderModelOnly node. Jenis node ApplyDeepyTorch ditunjukkan pada gambar berikut.

    image.png

Langkah 4: Uji alur kerja sampel

  1. Unduh alur kerja akselerasi wan2.1 DeepyTorch ke komputer Anda dari browser.

    1. Alur kerja gambar-ke-video

      https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_image_to_video_wan_1.3b_deepytorch.json
    2. Alur kerja teks-ke-video

      https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_text_to_video_wan_deepytorch.json
  2. Langkah-langkah berikut menggunakan alur kerja percepatan teks-ke-video sebagai contoh. Di ComfyUI, pilih Workflow > Open, lalu pilih file workflow_text_to_video_wan_deepytorch.json yang telah diunduh.

  3. Setelah membuka file alur kerja, temukan node Apply DeepyTorch to diffusion model dan atur parameternya enable menjadi true untuk mengaktifkan akselerasi. Lalu, klik Run dan tunggu video dibuat.

    Alur kerja akselerasi DeepyTorch menyisipkan node ApplyDeepyTorch setelah node Load Diffusion Model.

    image.png

  4. Klik tombol Queue di sebelah kiri untuk melihat waktu pembuatan video dan pratinjau video.

    Uji coba pertama mungkin memakan waktu lebih lama. Jalankan alur kerja dua atau tiga kali lagi untuk mendapatkan performa terbaik.

    image

  5. (Opsional) Untuk menguji skenario tanpa akselerasi, mulai ulang layanan ComfyUI dan pilih alur kerja berikut untuk menghasilkan video.

    https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_text_to_video_wan.json