このトピックでは、Kohya ツールの使用方法について説明します。
PAI ArtLab コンソール にログインします。
前提条件
PAI ArtLab を有効化し、必要な権限を付与していること。 詳細については、「PAI ArtLab を有効化し、権限を付与する」をご参照ください。
(オプション) 無料トライアルまたはクーポンを申請したか、リソースプランを購入していること。 詳細については、「PAI ArtLab 課金」をご参照ください。
リソース、クーポン、またはリソースプランの有効期限が切れる前に使用してください。 詳細については、「使用量と有効期間を表示する」をご参照ください。
手順
このトピックでは、油絵モデルのトレーニングの例を使用して、[Kohya (Exclusive Edition)] の使用方法を示します。 この例では、768 × 768 ピクセルの解像度の自然景観の 15 枚の油絵のデータセットを使用して、モデルをトレーニングします。
ステップ 1:データセットを作成する
PAI ArtLab にログインします。 右上隅で
アイコンにカーソルを合わせ、[中国 (上海)] リージョンを選択します。[データ] ページで、[データセットの作成] をクリックし、データセットの名前を入力します。
作成したデータセットに移動し、[フォルダの作成] をクリックして、フォルダの名前を入力します。
フォルダ名は Number_CustomName の形式である必要があります。 この数字は、トレーニング中にフォルダ内の画像が繰り返される回数を指定します。 たとえば、
30_testです。作成したフォルダに画像をアップロードします。 画像は次の要件を満たしている必要があります。
データセットには 15 枚以上の鮮明な画像が含まれている必要があります。
過度に高い解像度は避けてください。 sd1.5 ベースモデルに基づく LoRA トレーニングでは、512 × 512 または 512 × 768 ピクセルの画像解像度で十分です。
ウォーターマークが含まれている画像、低解像度の画像、異常な照明の画像、複雑または認識できないコンテンツが含まれている画像、または奇妙な角度から撮影された画像は避けてください。
ステップ 2:データをアノテーションする
[ツールボックス] ページで、[Kohya (Exclusive Edition)] カードをクリックしてツールを起動します。
タブで、次のパラメータを設定します。
パラメータ
説明
[キャプションする画像フォルダ]
作成したフォルダを選択します。 フォルダがドロップダウンリストに表示されない場合は、パスを手動で入力できます。
例:
/data-oss/datasets/test/30_test。[不要なタグ]
除外するプロンプトを入力します。
[WD14 キャプションに追加する接頭辞]
目的の LoRA トリガーワードを入力します。 形式は DatasetName + Number です。
例:
test1。[画像のキャプション] をクリックして、自動バッチアノテーションを開始します。
2 ~ 3 分待ちます。 ログ領域に [キャプション完了] と表示されたら、アノテーションは完了です。
[データ] ページで、作成したフォルダを開き、画像をクリックしてアノテーションを表示します。
アノテーションの内容を変更することもできます。
ステップ 3:モデルをトレーニングする
ページで、Checkpoint モデルを選択し、[マイモデル] に追加します。
[Kohya (Exclusive Edition)] ページで、 を選択し、次のパラメータを設定します。
[ソースモデル] タブで、次のパラメータを設定します。
パラメータ
説明
[モデルクイックピック]
[カスタム] を選択します。
[事前トレーニング済みモデル名またはパス]
右側の
アイコンをクリックして、モデルリストを更新します。ドロップダウンリストから、[/data-oss/models/Stable-diffusion] を選択します。
パスにスラッシュ (
/) を追加し、追加したモデルを選択します。
[フォルダ] タブで、次のパラメータを設定します。
パラメータ
説明
[出力フォルダ]
作成したデータセットを選択します。
[モデル出力名]
トレーニングする LoRA モデルの名前を入力します。 例:
test。[パラメータ] タブで、次のパラメータを設定します。
パラメータ
説明
エポック
値を [20] に設定します。
[最大解像度]
値を [768,768] に設定します。
[バケットを有効にする](データコンテナを有効にする)
このチェックボックスをオフにします。
データセット内のすべてのファイルの寸法が同じ場合は、このチェックボックスをオフにします。
[テキストエンコーダ学習率]
値を [0.00001] に設定します。
[ネットワークランク (ディメンション)]
値を [128] に設定します。
[ネットワークアルファ]
値を [64] に設定します。
[トレーニングを開始] をクリックします。 ログ領域に [モデルが保存されました] と表示されたら、モデルのトレーニングは完了です。
トレーニングプロセス中に、ログが生成されます。 損失値は、モデルの予測と実際の結果の差を測定する重要な指標です。 損失値はモデルの種類によって異なります。 次の表に参照値を示します。
モデルの種類
損失値
キャラクターモデル
0.06 ~ 0.09
オブジェクトモデル
0.07 ~ 0.09
スタイルモデル
0.08 ~ 0.13
特徴モデル
0.003 ~ 0.05
ステップ 4:モデルの効果を確認する
ページで、モデルカードの右側にある
アイコンをクリックして、Checkpoint モデルと生成された LoRA モデルを [Stable Diffusion (Shared Edition)] に追加します。[ツールボックス] ページで、[Stable Diffusion (Shared Edition)] カードをクリックしてツールを起動します。
[Stable Diffusion Model] の右側にある
をクリックし、Checkpoint モデルを選択します。[テキストから画像へ] タブで、次のパラメータを設定します。
[生成] タブで、次のパラメータを設定します。
パラメータ
説明
手順
値を [30] に設定します。
[スクリプト]
[X/Y/Z プロット] を選択します。
[X タイプ]: [プロンプト S/R]
[X 値]: [NUM,000001,000002,000003]
[Y タイプ]: [プロンプト S/R]
[Y 値]: [STRENGTH,0.3,0.5,0.6,0.7,0.8,0.9,1]
[LoRA] タブで、[更新] をクリックし、追加した LoRA モデルをクリックします。
トレーニングした LoRA モデルがリストされていない場合は、別のトレーニング済み LoRA モデルを選択し、プロンプトを変更してモデルを参照できます。
たとえば、
<lora:test-000002:1>を<lora:test-NUM:STRENGTH>に変更します。プロンプトを入力します。
パラメータ
説明
[ポジティブプロンプト]
test1, outdoors, sky, day, cloud, water, tree, blue sky, no humans, traditional media, grass, building, nature, scenery, house, castle,[ネガティブプロンプト]
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit,fewer digits, cropped, worst quality, low quality,normal quality, jpeg artifacts, signature,watermark, username, blurry,(worst quality:1.4),(low quality:1.4), (monochrome:1.1), Eagetive,
[生成] をクリックして、画像が生成されるまで待ちます。
X/Y/Z プロット画像が生成されます。 [X/Y/Z プロット] を使用して、トレーニング済みのすべてのモデルをテストし、異なるモデルと重みの効果を比較できます。
関連操作
トレーニング用の Checkpoint ベースモデルを選択する
方法 1:プラットフォームで事前設定された Checkpoint ベースモデル (sd1.5 xl など) を選択します。

方法 2:カスタムベースモデルを選択します。
[モデルクイックピック] を [カスタム] に設定します。 [事前トレーニング済みモデル名またはパス] フィールドに、[/data-oss/models/Stable-diffusion] と入力し、スラッシュ (
/) を追加してから、[マイモデル] に追加またはアップロードした Checkpoint モデルを選択します。