多層パーセプトロン (MLP) 回帰は、非線形回帰の問題を解決するために使用できるニューラルネットワークベースの回帰アルゴリズムです。 MLP回帰は、複数の隠れレイヤーを使用して入力フィーチャを出力にマッピングし、複雑なパターンと関係をキャプチャできます。 MLP回帰のトレーニングプロセスは、前方伝播、損失計算、後方伝播、およびパラメータ更新を含む。 トレーニングプロセスは、モデルの学習と最適化を促進し、出力を正確に予測するのに役立ちます。
サポートされるコンピューティングリソース
入力と出力
入力ポート
[ファイルデータの読み取り] コンポーネントを使用して、Object Storage Service (OSS) パスからトレーニングデータファイルを読み取ることができます。
MLP回帰 (トレーニング) コンポーネントのTrain Data Oss pathパラメーターを設定して、トレーニングデータファイルを選択できます。
出力ポート
トレーニング済みモデルは、MLP回帰 (トレーニング) コンポーネントのOutput Model Oss Dirパラメーターで指定されたパスに保存できます。
次の表に、コンポーネントのパラメーターを示します。
コンポーネントの設定
Machine Learning Designerのパイプラインの詳細ページで、MLP回帰 (トレーニング) コンポーネントをパイプラインに追加し、次の表に示すパラメーターを設定します。
タブ | パラメーター | 必須 / 任意 | デフォルト値 | 説明 | |
フィールド設定 | トレインデータOssパス | ✕ | なし | アップストリームOSSデータが出荷されていない場合は、トレーニングデータファイルを選択する必要があります。 例: train_data.csv. 選択するcsvファイルは数値フィーチャファイルである必要があり、ヘッダーを含めることはできません。 ファイルの最後の列にはトレーニングに使用される値が格納され、他の列には機能が格納されます。 | |
出力モデルOss Dir | 対象 | なし | トレーニング済みモデルの保存に使用できるOSSパス。 | ||
事前トレーニング済みモデルOssパス | ✕ | なし | 事前トレーニング済みモデルのパス。 このパラメーターを空のままにすると、事前トレーニング済みモデルは読み込まれません。 | ||
Parameter Settings | MLPレイヤーNum | 対象 | 3 | 出力レイヤーを除くMLPレイヤーの数。 | |
隠しレイヤーのサイズ一覧 | 対象 | 64,32,16 | 各隠れレイヤーの出力チャンネル数。 複数の数値はコンマ (,) で区切ります。 単一の番号を入力した場合、その番号はすべての非表示レイヤーの出力チャンネル数として使用されます。 | ||
ドロップアウト率のリスト | 対象 | 0.5 | 各ドロップアウトレイヤーのドロップアウト率。 複数のドロップアウト率はコンマ (,) で区切ります。 ドロップアウト率を1つ入力した場合、ドロップアウト率はすべてのドロップアウト層のドロップアウト率として使用されます。 | ||
トレーニングエポック | 対象 | 100 | トレーニングエポックの総数。 | ||
学習率 | 対象 | 0.01 | 学習率。 | ||
トレーニングBatchsize | 対象 | 32 | 各反復で使用されるトレーニングサンプルの数。 | ||
モデル保存エポック | 対象 | 10 | モデルは、指定された数のトレーニング期間ごとに保存されます。 | ||
検証エポック | 対象 | 5 | 検証セットは、指定された数のトレーニング期間ごとに評価されます。 | ||
Optimizerタイプ | 対象 | アダム | オプティマイザは、重みやオフセットなどのモデルパラメータを更新するために使用されるアルゴリズムです。 有効な値: AdamとSGD。 | ||
損失タイプ | 対象 | MSE | モデルの予測値と実際の値の差を測定するために使用できる損失関数。 有効な値: MSEおよびL1 | ||
実行チューニング | リソースグループの選択 | パブリックリソースグループ | ✕ | なし | 使用するインスタンスタイプ (CPUまたはGPU) と仮想プライベートクラウド (VPC) 。 |
専用リソースグループ | ✕ | なし | 使用するCPUコア、メモリ、共有メモリの数、およびGPUの数。 | ||
最大実行時間 (秒) | ✕ | なし | コンポーネントを実行できる最大期間。 指定した時間を超えた場合は, ジョブを終了します。 | ||