ComfyUIのインストールから使い方まで徹底解説!初心者ガイドでAI画像生成を始めよう
ヨミアゲAI編集部
AI音声・動画制作に関する情報をお届けします
ComfyUIは、Stable Diffusionなどの画像生成AIをノードベースで操作できる先進的なWeb UIです。従来のテキストベースのUIとは異なり、各機能を視覚的なブロック(ノード)として配置し、それらを線で接続することで複雑なワークフローを直感的に構築できます。2026年5月時点では、その高いカスタマイズ性、効率性、そしてワークフローの再利用性から、AI画像生成のプロフェッショナルから初心者まで幅広い層に支持されています。
特に、Automatic1111のような従来のWeb UIと比較して、ComfyUIは以下のようなメリットがあります。
- 高い効率性: 不要な処理をスキップし、必要な部分のみを再計算できるため、特に複雑なワークフローやバッチ処理において高速な生成が可能です。
- 無限のカスタマイズ性: あらゆる処理がノードとして提供されるため、既存のノードを組み合わせるだけでなく、カスタムノードを追加することで無限に機能を拡張できます。
- ワークフローの共有と再利用: 生成された画像には、その画像を生成したワークフロー情報が埋め込まれており、簡単に他のユーザーと共有し、再現することが可能です。これにより、初心者は熟練者のワークフローを学び、すぐに実践に活かせます。
| 特徴 | ComfyUI | 従来のWeb UI (例: Automatic1111) |
|---|---|---|
| 操作方法 | ノードベース(視覚的) | フォーム入力、タブ切り替え |
| 効率性 | 高い(必要な部分のみ計算) | 中程度(全体を再計算) |
| 拡張性 | 極めて高い(カスタムノード) | プラグイン形式 |
| ワークフロー | 共有・再利用が容易 | スクリーンショットなどでの共有 |
2026年現在、ComfyUIのコミュニティは活発で、日々新しいカスタムノードや最適化されたワークフローが生み出されています。これにより、最新の画像生成技術(例: SDXL Turbo, Stable Diffusion 3などの最新モデル)への対応も非常に迅速です。
初心者向けComfyUIインストールガイド
ComfyUIのインストールは、いくつかのステップを踏むことで比較的簡単に行えます。ここでは、Windows環境を例に、最も推奨される方法をステップバイステップで解説します。
⚠️ 注意: ComfyUIを快適に動作させるには、NVIDIA製のGPUが必須です。推奨されるGPUメモリは12GB以上ですが、最低でも8GBあれば基本的な動作は可能です。AMD GPUやMacのMシリーズチップでも動作しますが、設定が複雑になる場合があります。
1. 必要なソフトウェアの準備
まず、ComfyUIが依存する以下のソフトウェアをインストールします。
- Python: バージョン3.10.xが最も安定しています。公式サイトからインストーラーをダウンロードし、インストール時に「Add Python to PATH」にチェックを入れるのを忘れないでください。
- Git: GitHubからComfyUIのソースコードをクローンするために必要です。公式サイトからインストーラーをダウンロードし、デフォルト設定でインストールします。
- CUDA Toolkit (NVIDIA GPUユーザーのみ): NVIDIAのウェブサイトから、お使いのGPUドライバーと互換性のあるCUDA Toolkitをインストールします。これにより、GPUの計算能力を最大限に活用できます。
2. ComfyUIのダウンロードとセットアップ
ComfyUIをインストールする最も簡単な方法は、Gitを使ってリポジトリをクローンすることです。
- ComfyUIをインストールしたい任意のフォルダ(例:
C:\AI)を作成し、その中で右クリックして「Git Bash Here」またはコマンドプロンプトを開きます。 - 以下のコマンドを実行して、ComfyUIのリポジトリをクローンします。
git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI - 必要なPythonライブラリをインストールします。
pip install -r requirements.txt --extra-index-url https://download.pytorch.org/whl/cu121💡 ポイント:
--extra-index-url https://download.pytorch.org/whl/cu121は、CUDA 12.1を使用する場合のPyTorchのインストールパスを指定しています。お使いのCUDAバージョンに合わせてcu118などに調整してください。
3. モデルファイルの配置
画像生成を行うには、Stable Diffusionモデルが必要です。CivitaiやHugging Faceなどからダウンロードできます。
- ダウンロードしたモデルファイル(例:
model.safetensors)を、ComfyUIフォルダ内の以下のパスに配置します。ComfyUI/models/checkpoints/💡 ポイント: Stable Diffusionモデルのファイルサイズは、通常2GBから7GB程度です。ディスク容量に余裕を持たせてください。LoRAモデルは
ComfyUI/models/loras/に、VAEはComfyUI/models/vae/に配置します。
4. ComfyUIの起動
すべての準備が整ったら、ComfyUIを起動します。
ComfyUIフォルダ内で、run_nvidia_gpu.bat(NVIDIA GPUの場合)またはrun_cpu.bat(CPUのみの場合)をダブルクリックします。- コマンドプロンプトが開き、必要な処理が行われた後、ブラウザでComfyUIのUIが自動的に開きます。URLは通常
http://127.0.0.1:8188です。
ComfyUIの基本的な使い方:ノードベースの画像生成
ComfyUIのUIは、中央の大きなキャンバスにノードを配置し、それらを接続してワークフローを構築する形式です。
1. 基本的なワークフローの読み込み
ComfyUIを起動すると、デフォルトでシンプルな画像生成ワークフローが表示されます。これには、以下の主要なノードが含まれています。
- Load Checkpoint: 使用するStable Diffusionモデル(checkpoint)を読み込みます。
- CLIP Text Encode (Positive): ポジティブプロンプト(生成したい内容)をモデルが理解できる形式に変換します。
- CLIP Text Encode (Negative): ネガティブプロンプト(生成したくない内容)を変換します。
- KSampler: 画像生成の核となるサンプラーノードです。ステップ数、CFGスケール、シード値などを設定します。
- VAE Decode: モデルが生成した潜在空間の画像を、人間が視認できるピクセルデータに変換します。
- Save Image: 生成された画像を保存します。
2. パラメータの調整と画像生成
- Load Checkpoint: 「ckpt_name」ドロップダウンから、配置したモデルファイルを選択します。
- CLIP Text Encode: 「text」フィールドに、それぞれポジティブプロンプトとネガティブプロンプトを入力します。
- 例 (Positive):
a girl, wearing a dress, forest, sunlight, masterpiece - 例 (Negative):
ugly, deformed, low quality, bad anatomy
- 例 (Positive):
- KSampler:
- seed: 画像の多様性を制御します。
-1にすると毎回ランダムなシードが使われます。 - steps: 生成ステップ数。通常20〜30が推奨されます。
- cfg: CFGスケール。プロンプトへの忠実度を制御します。通常7〜9が推奨されます。
- sampler_name/scheduler: 画像生成アルゴリズムを選択します。初心者には
dpmpp_2m_sdeとkarrasの組み合わせがおすすめです。
- seed: 画像の多様性を制御します。
- すべての設定が完了したら、右側のパネルにある「Queue Prompt」ボタンをクリックします。ノードが緑色に光りながら処理が進み、最終的に「Save Image」ノードに生成された画像が表示されます。
💡 ポイント: 生成された画像を右クリックし、「Save Image」を選択すると、その画像と同時に、画像を生成した**ワークフロー情報(JSON形式)**もダウンロードされます。このJSONファイルをComfyUIのキャンバスにドラッグ&ドロップするだけで、同じワークフローを再現できます。
3. ノードの追加と接続
新しいノードを追加するには、キャンバス上の何もない場所でダブルクリックし、検索窓にノード名を入力して選択します。例えば、LoRAを使用したい場合は「Load LoRA」ノードを追加し、CLIPとMODELの出力を既存のワークフローに接続します。
ComfyUIをより深く使いこなすためのヒント
ComfyUIの真価は、カスタムノードと複雑なワークフローを構築できる点にあります。
- カスタムノードの導入: ComfyUI Managerなどのツールを導入することで、GitHubから簡単にカスタムノードをインストールできます。これにより、ControlNet、アップスケール、様々なユーティリティなど、無限の機能拡張が可能になります。
インストール後、ComfyUIを再起動すると、右側のパネルに「Manager」ボタンが表示されます。# ComfyUIフォルダ内で実行 git clone https://github.com/ltdrdata/ComfyUI-Manager.git custom_nodes/ComfyUI-Manager - ワークフローの学習: CivitaiやComfyUI公式フォーラムなどで共有されているワークフローをダウンロードし、自分のComfyUIに読み込んで試してみましょう。複雑なワークフローも、ノードのつながりを見ることで理解が深まります。
- GPUメモリの最適化: 大規模なモデルや高解像度画像を生成する際、GPUメモリが不足することがあります。ComfyUIはメモリ管理が優れていますが、
--lowvramや--highvramなどの起動オプションをrun_nvidia_gpu.batファイルに追加することで、さらにメモリ使用量を調整できます。
(例:@echo off python main.py --highvram pauseset PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6,max_split_size_mb:128などの環境変数を設定することも有効です。)
これらのステップとヒントを活用することで、ComfyUIの強力な機能を最大限に引き出し、あなたのAI画像生成の可能性を広げることができます。2026年5月時点では、ComfyUIはAIアートの世界で最も柔軟でパワフルなツールの一つであり続けています。