阿里雲容器計算服務 ACS(Container Compute Service)支援對各種異構計算資源進行統一調度,為使用者提供Serverless化使用異構計算資源的形式,降低異構計算叢集的營運複雜性。本文介紹ACS支援的異構計算資源使用方式。
ACS GPU典型工作流程
ACS為AI工作負載提供了一種極具彈性與成本效益的解決方案,全面覆蓋從資料預先處理、模型訓練到推理部署的完整生命週期。它將Serverless按需使用、自動擴縮容的特性與強大的GPU計算能力相結合,協助開發人員和資料科學家專註於商務邏輯與演算法創新,而非底層資源管理。
資料預先處理階段: 對於大規模資料集的清洗、轉換和增強任務,您可以利用Serverless CPU的平行處理能力,按需啟動大量CPU執行個體來加速計算。任務完成後,資源立即釋放,無需為空白閑時間付費。這對於處理周期性或突發性的資料批處理任務尤其高效,能顯著縮短資料準備周期。
模型訓練階段: 在模型訓練這一計算密集型環節,Serverless GPU允許您根據模型大小和收斂速度的需求,靈活選擇所需規格的GPU執行個體。訓練任務按實際執行時間長度計費,精準到秒,徹底消除了傳統模式下GPU伺服器的閑置成本,特別適合實驗性調參和迭代訓練。
考慮到模型訓練工作負載對資源確定性和靈活性的需求,可以使用GPU-HPN容量預留方案來預定GPU資源。
推理部署階段: 模型訓練完成後,可以將其無縫部署為線上推理服務。ACS的Serverless架構能夠根據即時請求流量,在秒級內自動擴縮容GPU執行個體,甚至可以縮容至零。這意味著在沒有流量時,您不承擔任何資源成本。這種極致的彈性非常適合流量波動大或有明顯波峰波穀的AI應用情境,如Image Recognition、自然語言處理等,滿足服務高可用的同時最大化節約成本。
通過ACS Serverless GPU,您可以在一個統一、無縫的平台上高效完成整個AI工作流程,實現資源的按需分配與成本的最佳化,加速AI應用的開發與落地。

ACS支援的GPU卡型
GPU卡型 | 顯存 | 支援的GPU卡數量 | 支援RDMA |
96GB | 1/2/4/8 | 是 | |
141GB | 1/2/4/8 | 是 | |
48GB | 1/2/4/8 | 否 | |
141GB | 8 | 是 | |
96GB | 1/2/4/8/16 | 是 | |
48GB | 1/2/4/8 | 否 | |
16GB | 1/2 | 否 | |
24GB | 1/2/4/8 | 否 | |
32GB | 1/2/4/8 | 否 |
關於GPU卡型的更多詳情,請參見ACS支援的GPU規格類型系列。
ACS GPU資源支援的可用性區域
可用性區域 | 支援的GPU卡型 |
cn-wulanchabu-a | GU8TF, L20, G49E |
cn-wulanchabu-b | G59 |
cn-wulanchabu-c | P16EN |
cn-beijing-d | GU8TF, GU8TEF, P16EN |
cn-beijing-i | A10 |
cn-beijing-l | L20, G49E, G59 |
cn-shanghai-e | G59 |
cn-shanghai-f | GU8TF, GU8TEF, P16EN |
cn-shanghai-l | L20, G49E, T4 |
cn-shanghai-n | L20 |
cn-shanghai-o | P16EN |
cn-hangzhou-b | GU8TF, L20, G49E, P16EN, G59 |
cn-hangzhou-i | T4 |
cn-shenzhen-c | L20 |
cn-shenzhen-d | GU8TEF, G49E, G59 |
cn-shenzhen-e | T4 |
cn-hongkong-d | GU8TEF |
ap-southeast-1 | GU8TF, L20, L20X |