MLP(Multilayer Perceptron,多層感知器)迴歸是一種基於神經網路的迴歸演算法,主要用於解決非線性迴歸問題。它通過多個隱藏層將輸入特徵映射到輸出,能夠捕捉複雜的模式和關係。MLP迴歸的訓練過程涉及前向傳播、損失計算、反向傳播及參數更新的多個步驟,通過這些步驟模型可以逐漸學習並最佳化,從而準確預測輸出結果。
支援的計算資源
輸入/輸出
輸入樁
通過讀OSS資料組件,讀取OSS路徑下的訓練資料檔案。
配置此演算法參數訓練資料OSS路徑,選擇訓練資料檔案。
輸出樁
訓練產生的模型,儲存地址對應演算法參數儲存模型的OSS路徑。
關於參數詳細說明,請參見下文中的參數說明。
配置組件
在Designer工作流程頁面添加MLP迴歸演算法(訓練)組件,並在介面右側配置相關參數:
參數類型 | 參數 | 是否必選 | 預設值 | 描述 | |
欄位設定 | 訓練資料OSS路徑 | 否 | 無 | 若無上遊OSS資料傳入,需手動選擇訓練資料檔案(格式要求:CSV格式的數值特徵檔案,無表頭,最後一列為目標值,其餘列為特徵)。 | |
儲存模型的OSS路徑 | 是 | 無 | 儲存模型的OSS路徑。 | ||
預訓練的模型路徑 | 否 | 無 | 預訓練的模型路徑,若不填,則不載入預訓練模型。 | ||
參數設定 | MLP網路層數 | 是 | 3 | MLP的層數(除輸出層外)。 | |
隱藏層的大小 | 是 | 64,32,16 | 每個隱藏層的輸出通道數,用半形逗號(,)隔開。若輸入單一數字,則表示所有隱藏層的輸出通道數。 | ||
每個Dropout層的丟棄比例 | 是 | 0.5 | 每個Dropout層的丟棄比例,用半形逗號(,)隔開。若輸入單一數字,則表示所有Dropout層的丟棄比例。 | ||
訓練輪數 | 是 | 100 | 訓練的總輪數。 | ||
學習率 | 是 | 0.01 | 學習率。 | ||
訓練批大小 | 是 | 32 | 每次迭代中使用的訓練樣本的數量。 | ||
模型儲存輪數 | 是 | 10 | 每隔多少個訓練輪次(epoch)儲存一次模型(checkpoint )。 | ||
驗證輪數 | 是 | 5 | 每隔多少個訓練輪次對驗證集進行一次評估 | ||
最佳化器類型 | 是 | Adam | 最佳化器,用於更新模型參數(如權重和偏置)的演算法,支援類型包含Adam、SGD。 | ||
損失函數類型 | 是 | MSE | 損失函數,用于衡量模型預測值與真實值之間差異的一種函數,支援類型包含MSE、L1。 | ||
執行調優 | 選擇資源群組 | 公用資源群組 | 否 | 無 | 選擇節點規格(CPU或GPU執行個體規格)、專用網路。 |
專有資源群組 | 否 | 無 | 選擇CPU核心數、記憶體、共用記憶體、GPU卡數。 | ||
最大運行時間長度 | 否 | 無 | 組件最大運行時間長度,超過這個時間,作業會被終止。 | ||