ComfyUIのインストールから使い方まで徹底解説!初心者向けガイド【2026年最新版】
ヨミアゲAI編集部
AI音声・動画制作に関する情報をお届けします
ComfyUIは、ノードベースの直感的なインターフェースでAI画像生成を行うための強力なツールです。2026年5月現在、Stable Diffusionの画像生成において、その柔軟性と効率性から多くのプロフェッショナルやクリエイターに選ばれています。従来のWeb UIと比較して、より複雑なワークフローを構築でき、メモリ効率も高いため、限られたGPUリソースでも高度な生成が可能です。
ComfyUIのインストール手順(2026年5月版)
ComfyUIをローカル環境に導入する手順は以下の通りです。基本的にはPythonとGitがあれば簡単に始められます。
1. 動作環境の確認と準備
ComfyUIはGPUを利用することで真価を発揮します。NVIDIA製GPUを推奨します。
| 推奨GPU | VRAM | 備考 |
|---|---|---|
| NVIDIA GeForce RTX 3060以上 | 12GB以上 | 快適な動作、SDXL推奨 |
| NVIDIA GeForce RTX 2060以上 | 8GB以上 | 動作可能、SDXLは厳しい場合あり |
| AMD Radeon RX 6700XT以上 | 12GB以上 | ROCm環境構築が必要、Windowsでは現状NVIDIAが優位 |
💡 ポイント: VRAMは多いほど、より大きな画像を生成したり、複雑なワークフローを構築したりできます。特に**Stable Diffusion XL (SDXL)**モデルを使用する場合は、最低でも12GBのVRAMを強く推奨します。
事前に以下のソフトウェアをインストールしておきましょう。
- Python: バージョン3.10.xを推奨します。公式サイトからダウンロードし、インストール時に「Add Python to PATH」にチェックを入れるのを忘れないでください。
- Git: ソースコードのクローンに必要です。公式サイトからダウンロードし、デフォルト設定でインストールしてください。
2. ComfyUIのダウンロードとセットアップ
-
ComfyUIリポジトリのクローン 任意の場所に新しいフォルダ(例:
C:\ComfyUI)を作成し、その中でコマンドプロンプトまたはPowerShellを開きます。以下のコマンドを実行してComfyUIのリポジトリをクローンします。git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI -
依存関係のインストール クローンしたComfyUIフォルダ内で、必要なPythonライブラリをインストールします。GPUの種類に応じてコマンドが異なります。
- NVIDIA GPUの場合:
pip install -r requirements.txt --extra-index-url https://download.pytorch.org/whl/cu121💡 ポイント:
cu121はCUDAバージョン12.1用を意味します。お使いの環境に合わせて適宜変更してください。多くの場合は上記で問題ありません。 - AMD GPUの場合 (Linux/ROCm環境):
pip install -r requirements.txt --extra-index-url https://download.pytorch.org/whl/rocm5.6⚠️ 注意: WindowsでのAMD GPUサポートはまだ実験的であり、NVIDIAほど安定していません。
- NVIDIA GPUの場合:
-
モデルファイルの配置 Stable Diffusionモデルは別途ダウンロードして配置する必要があります。CivitaiやHugging Faceなどで公開されているモデル(例: SDXL 1.0 base model)をダウンロードしてください。SDXL Baseモデルは通常7GB程度のファイルサイズがあります。
- Checkpoint (基本モデル):
ComfyUI/models/checkpointsフォルダに.safetensorsまたは.ckptファイルを配置します。 - LoRA:
ComfyUI/models/lorasフォルダに.safetensorsファイルを配置します。 - ControlNet:
ComfyUI/models/controlnetフォルダに.safetensorsファイルを配置します。
💡 ポイント: モデルの管理を効率化するために、後述のComfyUI Managerを導入することを強く推奨します。
- Checkpoint (基本モデル):
3. ComfyUIの起動
ComfyUIフォルダ内で以下のコマンドを実行します。
python main.py
初回起動時は必要なファイルのダウンロードやキャッシュの生成に数分かかる場合があります。起動が完了すると、Webブラウザでhttp://127.0.0.1:8188が自動的に開かれるか、コマンドプロンプトにURLが表示されます。
⚠️ 注意: コマンドプロンプトを閉じるとComfyUIも停止します。バックグラウンドで実行したい場合は、別途ツールを使用するか、ターミナルを残したままにしてください。
ComfyUIの基本的な使い方(初心者向け)
ComfyUIのWeb UIは、ノードと呼ばれるブロックを接続してワークフローを構築することで画像を生成します。
1. インターフェースの概要
- グラフエリア: ノードを配置し、線で接続してワークフローを構築するメインの領域です。
- プロパティパネル (右側): 選択したノードの設定を変更したり、ワークフロー全体の情報を表示したりします。
- Prompt/Queueパネル (下部): 画像生成の実行(Queue Prompt)や、ワークフローの保存・読み込みを行います。
2. 基本的なワークフローの構築
ComfyUIを起動すると、デフォルトで基本的なワークフローが表示されます。このワークフローを理解することが最初のステップです。
- ノードの追加: グラフエリアの何もない場所で右クリックし、「Add Node」から必要なノードを選択します。または、検索窓にノード名を入力して絞り込むこともできます。
- ノードの接続: 各ノードの入力(左側)と出力(右側)にある小さな丸(ポート)をドラッグ&ドロップで線でつなぎます。線の色はデータ型を示します(例: モデルは水色、潜在画像は紫色)。
基本的な画像生成ワークフローは以下のノードで構成されます。
- Load Checkpoint: 使用する基本モデル(例: SDXL Base)を読み込みます。
- CLIPTextEncode (Positive): ポジティブプロンプト(生成したい内容)を入力します。
- CLIPTextEncode (Negative): ネガティブプロンプト(生成したくない内容)を入力します。
- Empty Latent Image: 生成する画像のサイズとバッチ数を設定します。例: 幅1024、高さ1024。
- KSampler: 画像生成の核となるノードです。サンプラー、ステップ数、CFGスケール、シード値などを設定します。
- VAE Decode: KSamplerで生成された潜在画像データを、人間が視覚的に認識できる画像データに変換します。
- Save Image: 生成された画像を保存します。ファイル形式や品質を設定できます。
3. 画像生成の実行
- プロンプトの入力: 「CLIPTextEncode (Positive)」と「CLIPTextEncode (Negative)」ノードのテキストボックスに、それぞれプロンプトを入力します。
- 設定の調整: 「Empty Latent Image」で画像サイズを、「KSampler」でステップ数(例: 20〜30)、CFGスケール(例: 7〜8)、シード値などを調整します。
- 生成開始: 画面下部の「Queue Prompt」ボタンをクリックすると、ワークフローが左から右へ順に実行され、画像が生成されます。
💡 ポイント: 生成された画像は「Save Image」ノードを介して
ComfyUI/outputフォルダに保存されます。
2026年におけるComfyUI活用のポイントと注意点
1. ComfyUI Managerによる拡張機能管理
2026年5月現在、ComfyUI Manager v1.3.2(仮のバージョン)はComfyUIの必須ツールとなっています。これを使用することで、カスタムノードのインストール、モデルのダウンロード、ワークフローの更新などが非常に簡単に行えます。
- インストール方法:
ComfyUI/custom_nodesフォルダにManagerのリポジトリをクローンし、依存関係をインストールします。
その後ComfyUIを再起動すると、画面右下に「Manager」ボタンが表示されます。cd custom_nodes git clone https://github.l5d.cn/ltdrdata/ComfyUI-Manager.git cd ComfyUI-Manager pip install -r requirements.txt
2. 最新モデルとアドオンの活用
ComfyUIは、Stable Diffusion XL 1.0やSDXL Turboなどの最新モデルにいち早く対応し、そのポテンシャルを最大限に引き出せます。また、ControlNet(画像構造やポーズを制御)、LoRA(特定のスタイルやキャラクターを追加)、IP-Adapter(参照画像からのスタイル転送)などの多様なアドオン(カスタムノード)もComfyUI Managerから簡単に導入・利用できます。これにより、初心者でもより高度で精密な画像生成が可能です。
3. クラウドGPUの活用
ローカル環境のGPUが不足している場合、RunPodやVast.aiなどのクラウドGPUサービスを利用することも一般的になっています。これらのサービスでは、高性能なGPU(例: NVIDIA A100)を時間単位で借りることができ、複雑なワークフローや高解像度画像の生成も快適に行えます。月額費用は利用時間やGPUの種類によりますが、例えばNVIDIA RTX A6000を1時間あたり約0.5ドルで利用できるプランもあります。
⚠️ 注意: クラウドGPUを利用する場合、データ転送量やストレージ費用も発生することがあります。利用前に料金体系をよく確認しましょう。
ComfyUIはその学習コストがある一方で、一度慣れてしまえば他のAI画像生成ツールでは実現できないような自由度と効率性を提供します。本記事を参考に、ぜひComfyUIでの画像生成を楽しんでください。