Platform for AI (PAI) のPAI BERTモデル推論コンポーネントは、Transformers (BERT) モデルからの双方向エンコーダ表現に基づいてオフライン推論を実行するために使用されます。 このコンポーネントは、トレーニングされたBERTベースの分類モデルを使用して、入力テーブル内のテキストを分類します。
制限事項
ディープラーニングコンテナ (DLC) のリソースのみに基づいて、PAI BERTモデル推論コンポーネントを使用できます。
アルゴリズム
BERTは、自然言語処理 (NLP) の分野のTransformerに基づく事前学習言語モデル (PLM) です。 BERTは、入力テキストの双方向コンテキスト理解を学習するために、大量の生テキストデータに対してトレーニングされます。 BERTは、前後の単語に基づいて各単語を理解し、さまざまなNLPタスクに合わせて微調整できます。 PAI BERTモデル推論コンポーネントは、トレーニングされたBERTベースの分類モデルを使用して、入力テーブル内のテキストをトレーニング中に指定されたカテゴリに分類します。
PAIコンソールでのコンポーネントの設定
機械学習デザイナーでPAI BERTモデル推論コンポーネントのパラメーターを設定できます。
入力ポート
入力ポート (左から右)
データ型
推奨上流コンポーネント
必須
推論データテーブル
MaxComputeテーブル
可
コンポーネントパラメータ
タブ
パラメーター
必須
説明
デフォルト値
フィールド設定
OSSモデルパス
可
QuickStartでトレーニングされたBERTベースの分類モデルのObject Storage Service (OSS) パス。
N/A
選択した列名
可
予測するテキスト列を選択します。
N/A
ライフサイクル
不可
出力テーブルのライフサイクル。
28
チューニング
GPU
不可
トレーニング用にGPU高速化されたECS (Elastic Compute Service) インスタンスタイプを選択します。
N/A
最大実行時間
不可
コンポーネントが実行される最大期間。
N/A
出力ポート
出力ポート (左から右)
データ型
下流コンポーネント
出力テーブル
MaxComputeテーブル
関連ドキュメント
Machine Learning Designerコンポーネントの詳細については、「Machine Learning Designerの概要」をご参照ください。