すべてのプロダクト
Search
ドキュメントセンター

Platform For AI:PAI BERTモデル推論

最終更新日:Jul 22, 2024

Platform for AI (PAI) のPAI BERTモデル推論コンポーネントは、Transformers (BERT) モデルからの双方向エンコーダ表現に基づいてオフライン推論を実行するために使用されます。 このコンポーネントは、トレーニングされたBERTベースの分類モデルを使用して、入力テーブル内のテキストを分類します。

制限事項

ディープラーニングコンテナ (DLC) のリソースのみに基づいて、PAI BERTモデル推論コンポーネントを使用できます。

アルゴリズム

BERTは、自然言語処理 (NLP) の分野のTransformerに基づく事前学習言語モデル (PLM) です。 BERTは、入力テキストの双方向コンテキスト理解を学習するために、大量の生テキストデータに対してトレーニングされます。 BERTは、前後の単語に基づいて各単語を理解し、さまざまなNLPタスクに合わせて微調整できます。 PAI BERTモデル推論コンポーネントは、トレーニングされたBERTベースの分類モデルを使用して、入力テーブル内のテキストをトレーニング中に指定されたカテゴリに分類します。

PAIコンソールでのコンポーネントの設定

機械学習デザイナーでPAI BERTモデル推論コンポーネントのパラメーターを設定できます。

  • 入力ポート

    入力ポート (左から右)

    データ型

    推奨上流コンポーネント

    必須

    推論データテーブル

    MaxComputeテーブル

    読み取りテーブル

  • コンポーネントパラメータ

    タブ

    パラメーター

    必須

    説明

    デフォルト値

    フィールド設定

    OSSモデルパス

    QuickStartでトレーニングされたBERTベースの分類モデルのObject Storage Service (OSS) パス。

    N/A

    選択した列名

    予測するテキスト列を選択します。

    N/A

    ライフサイクル

    不可

    出力テーブルのライフサイクル。

    28

    チューニング

    GPU

    不可

    トレーニング用にGPU高速化されたECS (Elastic Compute Service) インスタンスタイプを選択します。

    N/A

    最大実行時間

    不可

    コンポーネントが実行される最大期間。

    N/A

  • 出力ポート

    出力ポート (左から右)

    データ型

    下流コンポーネント

    出力テーブル

    MaxComputeテーブル

    書き込みテーブル

関連ドキュメント

Machine Learning Designerコンポーネントの詳細については、「Machine Learning Designerの概要」をご参照ください。