Container Compute Service (ACS) menyediakan daya komputasi GPU tanpa perlu mengelola perangkat keras dasar atau konfigurasi node. ACS mudah digunakan, mendukung penagihan bayar sesuai penggunaan, dan ideal untuk tugas inferensi model bahasa besar (LLM), membantu mengurangi biaya inferensi. Topik ini menjelaskan cara menggunakan daya komputasi GPU dari ACS dengan plugin deepgpu-comfyui untuk mempercepat pembuatan video Wan2.1.
Informasi latar belakang
ComfyUI
ComfyUI adalah antarmuka pengguna grafis berbasis node (GUI) untuk menjalankan dan menyesuaikan Stable Diffusion, model teks-ke-gambar populer. Menggunakan bagan alir visual atau alur kerja, ComfyUI memungkinkan pengguna membangun pipa pembuatan gambar kompleks dengan menyeret dan melepas node, tanpa perlu menulis kode.
Model Wan
Tongyi Wanxiang, juga dikenal sebagai Wan, adalah model AI art dan teks-ke-gambar (AI-Generated Content (AIGC)) besar dari Alibaba's Tongyi Lab. Ini merupakan cabang generasi visual dari seri model besar Tongyi Qianwen. Wan adalah model AI art pertama di dunia yang mendukung prompt dalam bahasa Cina. Model ini memiliki kemampuan multimodal dan dapat menghasilkan karya seni berkualitas tinggi dari deskripsi teks, sketsa tangan, atau transfer gaya gambar.
Prasyarat
Saat pertama kali menggunakan Container Compute Service (ACS), Anda perlu memberikan peran default ke akun. Setelah otorisasi selesai, ACS dapat memanggil layanan lain seperti ECS, OSS, NAS, CPFS, dan SLB, membuat kluster, serta menyimpan log. Untuk informasi lebih lanjut, lihat Panduan Cepat untuk Pengguna ACS Pertama Kali.
Jenis kartu GPU yang didukung: L20 (GN8IS) dan G49E.
Prosedur
Langkah 1: Siapkan data model
Buat volume NAS atau OSS untuk menyimpan file model secara persisten. Topik ini menggunakan volume NAS sebagai contoh. Jalankan perintah berikut di direktori tempat volume NAS dipasang.
Untuk informasi lebih lanjut tentang cara membuat volume persisten, lihat Buat Sistem File NAS sebagai Volume atau Gunakan Volume OSS yang Disediakan Secara Statis.
Jalankan perintah berikut untuk mengunduh ComfyUI.
Pastikan bahwa Git telah terinstal di lingkungan Anda.
git clone https://github.com/comfyanonymous/ComfyUI.gitJalankan perintah berikut untuk mengunduh tiga file model berikut ke direktori yang sesuai di ComfyUI. Untuk informasi lebih lanjut tentang model-model tersebut, lihat proyek Wan_2.1_ComfyUI_repackaged.
Untuk memastikan unduhan lancar, Anda mungkin perlu meningkatkan bandwidth publik puncak. Unduhan diperkirakan memakan waktu sekitar 30 menit.
File
wan2.1_t2v_14B_fp16.safetensorscd ComfyUI/models/diffusion_models wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/diffusion_models/wan2.1_t2v_14B_fp16.safetensorsFile
wan_2.1_vae.safetensorscd ComfyUI/models/vae wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/vae/wan_2.1_vae.safetensorsFile
umt5_xxl_fp8_e4m3fn_scaled.safetensorscd ComfyUI/models/text_encoders wget https://modelscope.cn/models/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/master/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
Unduh dan ekstrak ComfyUI-deepgpu.
cd ComfyUI/custom_nodes wget https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/nodes/20250513/ComfyUI-deepgpu.tar.gz tar zxf ComfyUI-deepgpu.tar.gz
Langkah 2: Terapkan layanan ComfyUI
Masuk ke Konsol Layanan Komputasi Kontainer. Di panel navigasi di sebelah kiri, pilih Cluster List. Klik nama kluster target. Di panel navigasi di sebelah kiri, pilih . Di sudut kanan atas, klik Create From YAML.
Topik ini menggunakan pemasangan volume NAS sebagai contoh. Gunakan template YAML berikut dan klik Create.
Ubah nilai
persistentVolumeClaim.claimNameagar sesuai dengan nama klaim volume persisten (PVC) Anda.Contoh ini menggunakan inference-nv-pytorch 25.07 gambar. Untuk informasi lebih lanjut tentang penggunaan gambar ini di dokumen
cn-beijingPenggunaan.Gambar kontainer uji yang digunakan dalam contoh ini memiliki plugin deepgpu-torch dan deepgpu-comfyui pra-instal. Untuk menggunakan plugin ini di lingkungan kontainer lainnya, hubungi arsitek solusi (SA) untuk mendapatkan paket instalasi.
apiVersion: apps/v1 kind: Deployment metadata: labels: app: wanx-deployment name: wanx-deployment-test namespace: default spec: replicas: 1 selector: matchLabels: app: wanx-deployment template: metadata: labels: alibabacloud.com/compute-class: gpu alibabacloud.com/compute-qos: default alibabacloud.com/gpu-model-series: L20 #Jenis kartu GPU yang didukung: L20 (GN8IS), G49E app: wanx-deployment spec: containers: - command: - sh - -c - DEEPGPU_PUB_LS=true python3 /mnt/ComfyUI/main.py --listen 0.0.0.0 --port 7860 image: acs-registry-vpc.cn-beijing.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.07-vllm0.9.2-pytorch2.7-cu128-20250714-serverless imagePullPolicy: Always name: main resources: limits: nvidia.com/gpu: "1" cpu: "16" memory: 64Gi requests: nvidia.com/gpu: "1" cpu: "16" memory: 64Gi terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /dev/shm name: cache-volume - mountPath: /mnt #/mnt adalah jalur di pod tempat klaim volume NAS dipetakan name: data dnsPolicy: ClusterFirst restartPolicy: Always schedulerName: default-scheduler securityContext: {} terminationGracePeriodSeconds: 30 volumes: - emptyDir: medium: Memory sizeLimit: 500G name: cache-volume - name: data persistentVolumeClaim: claimName: wanx-nas #wanx-nas adalah klaim volume yang dibuat dari volume NAS --- apiVersion: v1 kind: Service metadata: name: wanx-test spec: type: LoadBalancer ports: - port: 7860 protocol: TCP targetPort: 7860 selector: app: wanx-deploymentDi kotak dialog yang muncul, klik View untuk masuk ke halaman detail beban kerja. Klik tab Logs. Jika keluaran berikut ditampilkan, layanan telah dimulai dengan sukses.

Langkah 3: Pelajari cara menggunakan plugin
Klik tab Access Method untuk mendapatkan External Endpoint dari layanan, seperti 8.xxx.xxx.114:7860.

Akses URL ComfyUI
http://8.xxx.xxx.114:7860/di browser. Di antarmuka ComfyUI, klik kanan lalu klik Add Node untuk melihat node DeepGPU yang termasuk dalam plugin.Pertama kali Anda mengakses URL, mungkin memerlukan waktu sekitar 5 menit untuk memuat.

Langkah 4: Uji alur kerja sampel
Unduh alur kerja akselerasi wan2.1 DeepyTorch ke komputer Anda dari browser.
Alur kerja gambar-ke-video
https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_image_to_video_wan_1.3b_deepytorch.jsonAlur kerja teks-ke-video
https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_text_to_video_wan_deepytorch.json
Langkah-langkah berikut menggunakan alur kerja percepatan teks-ke-video sebagai contoh. Di ComfyUI, pilih , lalu pilih file
workflow_text_to_video_wan_deepytorch.jsonyang telah diunduh.Setelah membuka file alur kerja, temukan node Apply DeepyTorch to diffusion model dan atur parameternya enable menjadi true untuk mengaktifkan akselerasi. Lalu, klik Run dan tunggu video dibuat.
Alur kerja akselerasi DeepyTorch menyisipkan node ApplyDeepyTorch setelah node Load Diffusion Model.

Klik tombol Queue di sebelah kiri untuk melihat waktu pembuatan video dan pratinjau video.
Uji coba pertama mungkin memakan waktu lebih lama. Jalankan alur kerja dua atau tiga kali lagi untuk mendapatkan performa terbaik.

(Opsional) Untuk menguji skenario tanpa akselerasi, mulai ulang layanan ComfyUI dan pilih alur kerja berikut untuk menghasilkan video.
https://aiacc-inference-public-v2.oss-cn-hangzhou.aliyuncs.com/deepgpu/comfyui/wan/workflows/workflow_text_to_video_wan.json
