【2026年最新】Stable Diffusion LoRA 作り方 手順:自作で理想のAIモデルを生成
ヨミアゲAI編集部
AI音声・動画制作に関する情報をお届けします
Stable DiffusionのLoRA (Low-Rank Adaptation) は、既存の基盤モデルに特定のスタイルやキャラクター、概念などを効率的に学習させるための強力な技術です。2026年5月現在、その作成プロセスは以前に比べて格段に進化し、よりアクセスしやすくなっています。ここでは、Stable Diffusion LoRAを自作するための具体的な手順を解説します。
1. LoRA学習環境の準備(2026年5月時点)
LoRA学習には、十分な計算リソースが必要です。2026年現在、ローカル環境とクラウド環境の選択肢があり、それぞれにメリット・デメリットが存在します。
ハードウェア要件
高品質なLoRAを効率的に作成するには、NVIDIA製GPUが必須です。 2026年における推奨スペックは以下の通りです。
| コンポーネント | 推奨スペック | 最低スペック |
|---|---|---|
| GPU | NVIDIA RTX 4080/4090 | NVIDIA RTX 3060以上 |
| VRAM | 24GB | 12GB |
| CPU | Intel Core i7 (12世代以降) / AMD Ryzen 7 (5000シリーズ以降) | Intel Core i5 / AMD Ryzen 5 |
| RAM | 32GB | 16GB |
| ストレージ | SSD 1TB以上 (NVMe推奨) | SSD 500GB以上 |
💡 ポイント: VRAMは学習効率に直結します。特に高解像度画像や大きなバッチサイズで学習する場合、VRAMが多いほど有利です。
ソフトウェア環境のセットアップ
LoRA学習ツールとして、Kohya_ss GUI (kohya-ss/sd-scripts) が2026年5月現在もデファクトスタンダードです。Python環境上に構築します。
-
Pythonのインストール: Python 3.10.x または 3.11.x を推奨します。
-
Gitのインストール: リポジトリのクローンに使用します。
-
CUDAのインストール: NVIDIA GPUドライバーと互換性のあるCUDA Toolkit 12.x をインストールします。
-
Kohya_ss GUIのセットアップ: Gitを使ってリポジトリをクローンし、必要な依存関係をインストールします。
git clone https://github.com/kohya-ss/sd-scripts.git cd sd-scripts python -m venv venv .\venv\Scripts\activate # Windowsの場合 # source venv/bin/activate # Linux/macOSの場合 pip install torch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 --index-url https://download.pytorch.org/whl/cu121 # CUDA 12.1の場合 pip install --upgrade pip pip install -r requirements.txt python .\setup.py install起動コマンドは通常
python .\gui.pyです。
クラウド環境の利用
高性能なGPUがない場合、RunPodやVast.aiなどのクラウドGPUサービス、または**Google Colab Pro/Pro+**を利用するのが一般的です。
| サービス | GPU例 (2026年5月時点) | 料金目安 (1時間あたり) | 特徴 |
|---|---|---|---|
| RunPod | RTX 4090 (24GB), A100 (80GB) | $0.35〜$0.80 | 安定性、プリインストール済みイメージが豊富 |
| Vast.ai | RTX 4090 (24GB), A6000 (48GB) | $0.20〜$0.60 | 料金変動が大きいが、安価なインスタンスが見つかる場合あり |
| Google Colab Pro+ | A100 (40GB) | 月額**$49.99**〜 | 手軽、環境構築不要だが、長時間の連続利用に制限あり |
⚠️ 注意: クラウドサービスは料金が発生します。使用しないときはインスタンスを停止することを忘れないでください。
2. データセットの準備とキャプション付け
LoRAの品質は、学習に使うデータセットの質と量に大きく左右されます。
画像の選定と加工
- 画像の収集: 学習させたい対象(キャラクター、スタイル、コンセプト)に関連する画像を最低15枚、理想的には30〜100枚以上集めます。様々な角度、表情、シチュエーションの画像を含めることが重要です。
- 解像度とアスペクト比: Stable Diffusionの学習では、正方形の画像が最も一般的です。
- 512x512または768x768ピクセルにリサイズします。
- アスペクト比が異なる画像は、クロップするか、余白を追加して正方形にします。
- 重複とノイズの除去: 類似しすぎた画像や、背景に不要な要素が多い画像は取り除きます。
キャプション付け(Tagging)
各画像に適切なキャプション(タグ)を付けることで、モデルが何を学習すべきかを正確に指示します。
- 自動キャプションツール:
- BLIP: 画像の内容を簡潔な英語の文章で記述します。
- DeepBooru: イラスト画像に対して、アニメ・漫画系のタグを生成します。
- Waifu Diffusion Tagger v3: 特にアニメ調の画像に強力です。 これらのツールはKohya_ss GUIから直接利用できる場合が多いです。
- 手動修正: 自動生成されたキャプションは完璧ではありません。必要に応じて手動で修正・追記します。
- トリガーワード: LoRAを呼び出すためのユニークな単語(例:
my_character,my_style)を、全てのキャプションの先頭に追加します。 - 詳細な情報: 服装、髪の色、ポーズなど、学習させたい特徴を具体的に記述します。
- 不要な情報: 背景など、学習させたくない要素のタグは削除します。
- トリガーワード: LoRAを呼び出すためのユニークな単語(例:
💡 ポイント: キャプションは「この画像には何が写っているか」を正確に表現するよう心がけましょう。過剰なタグ付けはオーバーフィッティングの原因になることがあります。
3. Kohya_ss GUIを使ったLoRA学習手順
データセットの準備ができたら、いよいよ学習です。Kohya_ss GUIを使えば、直感的に設定できます。
- 学習タブの選択: Kohya_ss GUIを起動し、「Dreambooth LoRA」タブを選択します。
- モデルパスの設定:
- Pretrained model name or path: 学習元となるStable Diffusionのベースモデル(例:
stabilityai/stable-diffusion-xl-base-1.0またはrunwayml/stable-diffusion-v1-5)のパスを指定します。
- Pretrained model name or path: 学習元となるStable Diffusionのベースモデル(例:
- データセットの設定:
- Image folder: 準備した画像が入っているフォルダを指定します。
- Concept List:
[繰り返し回数]_[トリガーワード] [画像パス]の形式で設定します。 例:10_my_character C:\LoRA_Data\images(画像1枚につき10回学習)
- 学習パラメータの調整:
「Parameters」セクションで、重要な設定を行います。
- Epochs: 学習の繰り返し回数。通常10〜30 Epochsから始めます。多すぎるとオーバーフィッティングします。
- Batch size: GPUメモリが許す限り大きくします。1〜4が一般的です。
- Learning rate: 学習率。U-NetとText Encoderで異なる値を設定することが推奨されます。
- U-Net Learning Rate:
1e-5(0.00001) 〜5e-5(0.00005) - Text Encoder Learning Rate:
5e-6(0.000005) 〜2e-5(000002)
- U-Net Learning Rate:
- Optimizer:
AdamW8bitやLionが高速でメモリ効率が良いとされます。 - Network Rank (Dimension): LoRAの表現力に影響します。32〜128が一般的で、高いほど容量が大きくなり表現力が増しますが、過剰にするとオーバーフィッティングしやすくなります。
- Network Alpha: 通常は
Network Rankの半分に設定します。 - Mixed precision:
fp16またはbf16を選択し、学習速度を向上させます。
- 出力設定:
- Output folder: 学習済みLoRAモデルの出力先を指定します。
- Save every N epochs: Nエポックごとにモデルを保存し、最適なモデルを選択できるようにします。
- 学習の開始: 「Start Training」ボタンをクリックして学習を開始します。学習状況はコンソールログで確認できます。
⚠️ 注意: 不適切なパラメータ設定は、学習の失敗や低品質なLoRAに繋がります。最初は推奨設定から始め、少しずつ調整してください。
4. 学習済みLoRAの評価と活用
学習が完了したら、生成されたLoRAモデルを評価し、実際に活用します。
- モデルのロードと生成テスト:
Stable Diffusion Web UI (AUTOMATIC1111版など) に学習済みLoRAモデルを配置し、生成テストを行います。
stable-diffusion-webui/models/Loraフォルダに.safetensorsファイルを配置します。- プロンプトに
(トリガーワード:1.0)とLoRAを呼び出す構文を追加します。 - 様々なプロンプトで画像を生成し、LoRAが意図通りに機能しているか確認します。特に、トリガーワードの有無での変化、学習対象以外の要素への影響などをチェックします。
- 最適なEpochの選択: 「Save every N epochs」で保存した複数のモデルを比較し、最も良い結果を出すEpochのモデルを選択します。オーバーフィッティングを起こしていないか、細部まで再現できているかなどを評価します。
- マージと微調整: 必要に応じて、他のLoRAとマージしたり、さらに追加学習(マージ後の再学習)を行うことで、より洗練されたモデルを作成できます。
LoRA作成は試行錯誤のプロセスです。データセットの質、キャプションの精度、そして学習パラメータの調整が、高品質なLoRAを生み出す鍵となります。2026年の進化し続けるツールとコミュニティの知識を活用し、あなたの創造性を形にしてください。