全部產品
Search
文件中心

Function Compute:技術選型指南

更新時間:Dec 09, 2025

為滿足不同情境下的使用者需求,Function Compute提供事件函數、Web函數、任務函數和GPU函數四種函數類型。針對不同開發流程,Function Compute提供內建運行、自訂運行時和自訂鏡像三種運行時環境。根據不同業務的資源使用率高低和使用者對付費模式的預期差別,Function Compute提供彈性執行個體和常駐執行個體兩種執行個體類型。本文將介紹Function Compute提供的功能特性及其適用情境,協助您進行技術選型。

選型概述

使用Function Compute時,您可以根據業務情境和技術棧偏好,選擇合適的函數類型和運行環境,並結合執行個體使用類型最佳化效能和成本。

  • Web應用API服務:推薦使用Web函數結合自訂運行時,該函數支援多種流行的Web應用程式框架,可以通過瀏覽器訪問,或由URL直接調用。

  • 檔案處理資料流處理:推薦使用事件函數結合內建運行時。您可以配置事件觸發,整合多種阿里雲產品(如Object Storage Service雲訊息佇列 RocketMQ 版Log ServiceSLS等)。

  • Chatbot文生圖等AI推理情境:推薦使用GPU函數結合自訂鏡像,基於流行AI專案(如ComfyUI、RAG、TensorRT等)的容器鏡像,快速構建AI模型推理服務。

  • 非同步任務:推薦使用任務函數結合內建運行時,處理定時任務、音視頻轉碼等情境。

說明
  • 內建運行時自訂運行時都以程式碼封裝形式部署至函數,適合輕量級應用。

  • 容器化部署,需選擇自訂鏡像GPU函數僅支援使用自訂鏡像

函數類型選型

對比項

事件函數

Web函數

任務函數

GPU函數

功能

用於處理檔案和資料流,可以通過各類雲產品的事件觸發(如OSS觸發器Kafka觸發器SLS觸發器)。

支援流行的Web應用程式框架,可以通過瀏覽器訪問,或通過URL調用。

用於處理非同步請求,能夠追蹤並儲存非同步呼叫各個階段的狀態。

支援流行AI專案(如Stable Diffusion WebUI、ComfyUI、RAG、TensorRT)的容器鏡像,快速構建AI模型推理服務。

適用情境

  • 雲產品整合:OSS即時檔案處理、SLS日誌加工等。

  • ETL資料加工:資料庫資料清洗、訊息佇列處理等。

  • 快速構建流行Web架構應用SpringBootExpressFlask等。

  • 遷移已有的應用:HTML5網站、REST API、BFF、移動APP、小程式、遊戲結算等。

  • 常規任務:定時任務、周期任務、指令碼任務等。

  • 多媒體處理:音視頻轉碼、直播錄製、圖片加工等。

  • 傳統線上推理:CV視覺識別、NLP語言處理等。

  • AIGC模型推理:文生文、文生圖、文生音頻等。

運行時環境

推薦使用內建運行時

推薦使用自訂運行時

推薦使用內建運行時

僅支援自訂鏡像

非同步任務

預設關閉

預設關閉

預設開啟

預設關閉

運行時環境選型

對比項

內建運行時

自訂運行時

自訂鏡像

開發流程

按照Function Compute定義的介面編寫請求處理常式。

基於Web應用程式框架模板開發應用,通過公網訪問地址即時看到結果。

將自訂鏡像上傳至ACR然後使用鏡像,或者使用ACR中已有的鏡像。

支援的執行個體類型

CPU執行個體

CPU執行個體

CPU執行個體和GPU執行個體

單一實例多並發

不支援

支援

支援

冷啟動

最快。程式碼封裝中不包含運行時,冷啟動最快。

較快。程式碼封裝為HTTP Server,體積較大但無需拉取鏡像,因此冷啟動較快。

較慢。需要拉取鏡像,冷啟動較慢。

代碼交付物格式

ZIP、JAR(Java)、檔案夾

容器鏡像

代碼交付物大小限制

部分地區(如杭州)最大500 MB,其他地區最大100MB。

說明

您可以配置層添加依賴,以減少程式碼封裝體積。

  • CPU執行個體鏡像大小不超過10 GB(未解壓)。

  • GPU執行個體鏡像大小不超過15 GB(未解壓)。

說明

對於AI推理應用,您可以將大尺寸模型儲存在NAS或OSS,以減少鏡像體積。

支援的程式設計語言

Node.js、Python、PHP、Java、C#、Go

無限制

無限制

執行個體類型選型

針對CPU函數,僅支援彈性執行個體。針對GPU函數,您可以根據業務資源使用率、對延時敏感程度和對費用的穩定性要求,選擇彈性執行個體或常駐執行個體,詳細選型指引請參見以下流程圖。

說明

僅支援為Ada、Ada.2、Ada.3、Hopper和Xpu.1系列卡型的GPU函數綁定常駐執行個體。

彈性執行個體

如果設定函數的最小執行個體數為0,將按請求量自動Auto Scaling,無請求後執行個體自動回收,即按使用量計費,不使用不收費,能夠做到最大程度降本。業務請求越頻繁,資源使用率越高,相對虛擬機器彈性的降本幅度越高。

是否存在冷啟動

是。針對時延敏感業務,為瞭解決冷啟動問題,可以設定最小執行個體數≥1,提前鎖定彈性資源,當請求到達時,迅速喚醒執行個體執行請求。

計費說明(後付費

函數的使用費用由彈性執行個體(活躍)和彈性執行個體(淺休眠(原閑置))費用構成,如果設定最小執行個體數≥1,建議開啟淺休眠(原閑置)模式開關。彈性執行個體(淺休眠(原閑置))狀態下vCPU資源使用不收費,GPU資源使用僅收1/5費用,使用費用遠遠小於彈性執行個體(活躍)狀態的費用。

關於彈性執行個體(活躍)和彈性執行個體(淺休眠(原閑置))的情境劃分,請參見彈性執行個體

常駐執行個體

僅適用於GPU函數。使用者需提前購買常駐資源集區,然後基於常駐資源集區為指定函數分配指定數量和卡型的常駐執行個體,從而實現使用成本的可控與固定。適用於業務資源使用率高、時延要求高或對費用穩定性有較高要求的情境。

是否存在冷啟動

否。使用常駐執行個體時,函數最多可以同時處理的請求數=被分配的常駐執行個體數×執行個體並發數,超出的請求將被流控,而未超出的請求,可以實現即時響應,徹底消除冷啟動。

計費說明(預付費

函數費用包括已購買的所有常駐資源集區的預付費費用。