すべてのプロダクト
Search
ドキュメントセンター

Platform For AI:PAI ArtLab Kohya

最終更新日:Sep 16, 2025

このトピックでは、Kohya ツールの使用方法について説明します。

PAI ArtLab コンソール にログインします。

前提条件

  • PAI ArtLab を有効化し、必要な権限を付与していること。 詳細については、「PAI ArtLab を有効化し、権限を付与する」をご参照ください。

  • (オプション) 無料トライアルまたはクーポンを申請したか、リソースプランを購入していること。 詳細については、「PAI ArtLab 課金」をご参照ください。

    リソース、クーポン、またはリソースプランの有効期限が切れる前に使用してください。 詳細については、「使用量と有効期間を表示する」をご参照ください。

手順

このトピックでは、油絵モデルのトレーニングの例を使用して、[Kohya (Exclusive Edition)] の使用方法を示します。 この例では、768 × 768 ピクセルの解像度の自然景観の 15 枚の油絵のデータセットを使用して、モデルをトレーニングします。

ステップ 1:データセットを作成する

  1. PAI ArtLab にログインします。 右上隅で image アイコンにカーソルを合わせ、[中国 (上海)] リージョンを選択します。

  2. [データ] ページで、[データセットの作成] をクリックし、データセットの名前を入力します。

  3. 作成したデータセットに移動し、[フォルダの作成] をクリックして、フォルダの名前を入力します。

    フォルダ名は Number_CustomName の形式である必要があります。 この数字は、トレーニング中にフォルダ内の画像が繰り返される回数を指定します。 たとえば、30_test です。

  4. 作成したフォルダに画像をアップロードします。 画像は次の要件を満たしている必要があります。

    • データセットには 15 枚以上の鮮明な画像が含まれている必要があります。

    • 過度に高い解像度は避けてください。 sd1.5 ベースモデルに基づく LoRA トレーニングでは、512 × 512 または 512 × 768 ピクセルの画像解像度で十分です。

    • ウォーターマークが含まれている画像、低解像度の画像、異常な照明の画像、複雑または認識できないコンテンツが含まれている画像、または奇妙な角度から撮影された画像は避けてください。

ステップ 2:データをアノテーションする

  1. [ツールボックス] ページで、[Kohya (Exclusive Edition)] カードをクリックしてツールを起動します。

  2. [ユーティリティ] > [キャプション] > [WD14 キャプション] タブで、次のパラメータを設定します。

    パラメータ

    説明

    [キャプションする画像フォルダ]

    作成したフォルダを選択します。 フォルダがドロップダウンリストに表示されない場合は、パスを手動で入力できます。

    例: /data-oss/datasets/test/30_test

    [不要なタグ]

    除外するプロンプトを入力します。

    [WD14 キャプションに追加する接頭辞]

    目的の LoRA トリガーワードを入力します。 形式は DatasetName + Number です。

    例: test1

  3. [画像のキャプション] をクリックして、自動バッチアノテーションを開始します。

    2 ~ 3 分待ちます。 ログ領域に [キャプション完了] と表示されたら、アノテーションは完了です。

  4. [データ] ページで、作成したフォルダを開き、画像をクリックしてアノテーションを表示します。

    アノテーションの内容を変更することもできます。

ステップ 3:モデルをトレーニングする

  1. [モデル] > [モデルスコープ] ページで、Checkpoint モデルを選択し、[マイモデル] に追加します。

  2. [Kohya (Exclusive Edition)] ページで、[LoRA] > [トレーニング] を選択し、次のパラメータを設定します。

    1. [ソースモデル] タブで、次のパラメータを設定します。

      パラメータ

      説明

      [モデルクイックピック]

      [カスタム] を選択します。

      [事前トレーニング済みモデル名またはパス]

      1. 右側の image アイコンをクリックして、モデルリストを更新します。

      2. ドロップダウンリストから、[/data-oss/models/Stable-diffusion] を選択します。

      3. パスにスラッシュ (/) を追加し、追加したモデルを選択します。

    2. [フォルダ] タブで、次のパラメータを設定します。

      パラメータ

      説明

      [出力フォルダ]

      作成したデータセットを選択します。

      [モデル出力名]

      トレーニングする LoRA モデルの名前を入力します。 例: test

    3. [パラメータ] タブで、次のパラメータを設定します。

      パラメータ

      説明

      エポック

      値を [20] に設定します。

      [最大解像度]

      値を [768,768] に設定します。

      [バケットを有効にする](データコンテナを有効にする)

      このチェックボックスをオフにします。

      データセット内のすべてのファイルの寸法が同じ場合は、このチェックボックスをオフにします。

      [テキストエンコーダ学習率]

      値を [0.00001] に設定します。

      [ネットワークランク (ディメンション)]

      値を [128] に設定します。

      [ネットワークアルファ]

      値を [64] に設定します。

  3. [トレーニングを開始] をクリックします。 ログ領域に [モデルが保存されました] と表示されたら、モデルのトレーニングは完了です。

    トレーニングプロセス中に、ログが生成されます。 損失値は、モデルの予測と実際の結果の差を測定する重要な指標です。 損失値はモデルの種類によって異なります。 次の表に参照値を示します。

    モデルの種類

    損失値

    キャラクターモデル

    0.06 ~ 0.09

    オブジェクトモデル

    0.07 ~ 0.09

    スタイルモデル

    0.08 ~ 0.13

    特徴モデル

    0.003 ~ 0.05

ステップ 4:モデルの効果を確認する

  1. [モデル] > [マイモデル] ページで、モデルカードの右側にある image アイコンをクリックして、Checkpoint モデルと生成された LoRA モデルを [Stable Diffusion (Shared Edition)] に追加します。

  2. [ツールボックス] ページで、[Stable Diffusion (Shared Edition)] カードをクリックしてツールを起動します。

  3. [Stable Diffusion Model] の右側にあるimageをクリックし、Checkpoint モデルを選択します。

  4. [テキストから画像へ] タブで、次のパラメータを設定します。

    1. [生成] タブで、次のパラメータを設定します。

      パラメータ

      説明

      手順

      値を [30] に設定します。

      [スクリプト]

      [X/Y/Z プロット] を選択します。

      • [X タイプ]: [プロンプト S/R]

      • [X 値]: [NUM,000001,000002,000003]

      • [Y タイプ]: [プロンプト S/R]

      • [Y 値]: [STRENGTH,0.3,0.5,0.6,0.7,0.8,0.9,1]

    2. [LoRA] タブで、[更新] をクリックし、追加した LoRA モデルをクリックします。

      トレーニングした LoRA モデルがリストされていない場合は、別のトレーニング済み LoRA モデルを選択し、プロンプトを変更してモデルを参照できます。

      たとえば、<lora:test-000002:1><lora:test-NUM:STRENGTH> に変更します。

    3. プロンプトを入力します。

      パラメータ

      説明

      [ポジティブプロンプト]

      test1, outdoors, sky, day, cloud, water, tree, blue sky, no humans, traditional media, grass, building, nature, scenery, house, castle,

      [ネガティブプロンプト]

      lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit,fewer digits, cropped, worst quality, low quality,normal quality, jpeg artifacts, signature,watermark, username, blurry,(worst quality:1.4),(low quality:1.4), (monochrome:1.1), Eagetive,

  5. [生成] をクリックして、画像が生成されるまで待ちます。

    X/Y/Z プロット画像が生成されます。 [X/Y/Z プロット] を使用して、トレーニング済みのすべてのモデルをテストし、異なるモデルと重みの効果を比較できます。

関連操作

トレーニング用の Checkpoint ベースモデルを選択する

  • 方法 1:プラットフォームで事前設定された Checkpoint ベースモデル (sd1.5 xl など) を選択します。

    image

  • 方法 2:カスタムベースモデルを選択します。

    1. トレーニング用のベースモデルをアップロードする か、モデルを追加する

    2. [モデルクイックピック][カスタム] に設定します。 [事前トレーニング済みモデル名またはパス] フィールドに、[/data-oss/models/Stable-diffusion] と入力し、スラッシュ (/) を追加してから、[マイモデル] に追加またはアップロードした Checkpoint モデルを選択します。

      image