全部產品
Search
文件中心

Platform For AI:MLP迴歸演算法(訓練)

更新時間:Feb 24, 2025

MLP(Multilayer Perceptron,多層感知器)迴歸是一種基於神經網路的迴歸演算法,主要用於解決非線性迴歸問題。它通過多個隱藏層將輸入特徵映射到輸出,能夠捕捉複雜的模式和關係。MLP迴歸的訓練過程涉及前向傳播、損失計算、反向傳播及參數更新的多個步驟,通過這些步驟模型可以逐漸學習並最佳化,從而準確預測輸出結果。

支援的計算資源

DLC

輸入/輸出

輸入樁

  • 通過讀OSS資料組件,讀取OSS路徑下的訓練資料檔案。

  • 配置此演算法參數訓練資料OSS路徑,選擇訓練資料檔案。

輸出樁

訓練產生的模型,儲存地址對應演算法參數儲存模型的OSS路徑

關於參數詳細說明,請參見下文中的參數說明。

配置組件

在Designer工作流程頁面添加MLP迴歸演算法(訓練)組件,並在介面右側配置相關參數:

參數類型

參數

是否必選

預設值

描述

欄位設定

訓練資料OSS路徑

若無上遊OSS資料傳入,需手動選擇訓練資料檔案(格式要求:CSV格式的數值特徵檔案,無表頭,最後一列為目標值,其餘列為特徵)。

儲存模型的OSS路徑

儲存模型的OSS路徑。

預訓練的模型路徑

預訓練的模型路徑,若不填,則不載入預訓練模型。

參數設定

MLP網路層數

3

MLP的層數(除輸出層外)。

隱藏層的大小

64,32,16

每個隱藏層的輸出通道數,用半形逗號(,)隔開。若輸入單一數字,則表示所有隱藏層的輸出通道數。

每個Dropout層的丟棄比例

0.5

每個Dropout層的丟棄比例,用半形逗號(,)隔開。若輸入單一數字,則表示所有Dropout層的丟棄比例。

訓練輪數

100

訓練的總輪數。

學習率

0.01

學習率。

訓練批大小

32

每次迭代中使用的訓練樣本的數量。

模型儲存輪數

10

每隔多少個訓練輪次(epoch)儲存一次模型(checkpoint )。

驗證輪數

5

每隔多少個訓練輪次對驗證集進行一次評估

最佳化器類型

Adam

最佳化器,用於更新模型參數(如權重和偏置)的演算法,支援類型包含Adam、SGD。

損失函數類型

MSE

損失函數,用于衡量模型預測值與真實值之間差異的一種函數,支援類型包含MSE、L1。

執行調優

選擇資源群組

公用資源群組

選擇節點規格(CPU或GPU執行個體規格)、專用網路。

專有資源群組

選擇CPU核心數、記憶體、共用記憶體、GPU卡數。

最大運行時間長度

組件最大運行時間長度,超過這個時間,作業會被終止。