🤖
AI・機械学習

【2026年版】ComfyUIのインストールから使い方まで徹底解説!初心者ガイド

#ComfyUI #インストール #使い方 #初心者 #Stable Diffusion #AI画像生成 #ワークフロー
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIは、Stable Diffusionを基盤とした画像生成AIを、ノードベースのグラフィカルインターフェースで操作できるツールです。2026年5月現在、その高い柔軟性と効率性から、初心者からプロフェッショナルまで幅広いユーザーに選ばれています。従来のWebUI(AUTOMATIC1111など)と比較して、GPUリソースを効率的に利用し、より複雑なワークフローや実験的な画像生成、さらには動画生成までを直感的に構築できる点が最大の魅力です。

ComfyUIのインストール手順(2026年版)

ComfyUIのインストールは、いくつかのステップを踏むことで初心者でも比較的容易に行えます。ここでは、Windows環境を例に解説しますが、LinuxやmacOSでも基本的な流れは同様です。

1. 必要環境の確認

ComfyUIを快適に利用するためには、一定のハードウェアスペックが求められます。特にGPU性能は画像生成速度に直結するため重要です。

項目 推奨スペック 備考
OS Windows 10/11, Linux macOSも可能だが、Apple Siliconの性能に依存
GPU NVIDIA GeForce RTX 30シリーズ以上 VRAM8GB以上必須。複雑なワークフローや高解像度生成には12GB以上を強く推奨。AMD Radeon RX 6000/7000シリーズ、Intel Arcシリーズも対応が進んでいます。
CPU Intel Core i5 / AMD Ryzen 5相当以上
RAM 16GB以上
ストレージ 50GB以上の空き容量 ComfyUI本体とモデルファイルで消費。多数のモデルを扱うなら1TB以上のSSDを推奨。
Python Python 3.10.x または 3.11.x 2026年5月時点での推奨バージョン。

💡 ポイント: GPUのVRAM容量はComfyUIの性能を大きく左右します。特に高解像度での画像生成や、ControlNetなどの追加機能を利用する際には、VRAMが多いほどスムーズに動作します。

2. Pythonのインストール

ComfyUIを動作させるにはPythonが必要です。 Python公式サイトから、推奨バージョンのインストーラーをダウンロードし、実行します。

⚠️ 注意: インストール時に必ず「Add Python to PATH」のチェックボックスをオンにしてください。これを忘れると、コマンドプロンプトからPythonが認識されず、後の手順でエラーが発生します。

3. ComfyUI本体のダウンロード

ComfyUIはGitHubからダウンロードするのが一般的です。 最も簡単な方法は、One-click installerを利用することです。これにより、Python環境の構築や依存ライブラリのインストールが自動化されます。

  1. ComfyUIのGitHubリポジトリにアクセスします。
  2. 「Code」ボタンをクリックし、「Download ZIP」を選択してファイルをダウンロードします。または、git cloneコマンドを使用します。
    git clone https://github.com/comfyanonymous/ComfyUI.git
    
  3. ダウンロードしたZIPファイルを任意の場所に展開します(例: C:\ComfyUI)。ComfyUI本体のファイルサイズは約2GBです。

4. 必要なモデルのダウンロード

Stable Diffusionの画像生成には、Checkpointモデル(ベースモデル)が必要です。CivitaiやHugging Faceなどのサイトからダウンロードできます。

  1. Checkpointモデル: ComfyUI/models/checkpointsフォルダに配置します。ファイルは通常、.safetensorsまたは.ckpt形式で、1つあたり4GB〜7GB程度の容量があります。
  2. VAE: ComfyUI/models/vaeフォルダに配置します。
  3. LoRA: ComfyUI/models/lorasフォルダに配置します。
  4. ControlNet: ComfyUI/models/controlnetフォルダに配置します。

5. ComfyUIの起動

ダウンロードとモデルの配置が完了したら、ComfyUIを起動します。

  1. ComfyUIフォルダ(例: C:\ComfyUI)を開きます。
  2. Windows NVIDIA GPUの場合: run_nvidia_gpu.batファイルをダブルクリックして実行します。
  3. Linux/macOSまたはNVIDIA以外のGPUの場合: コマンドプロンプトまたはターミナルを開き、ComfyUIフォルダに移動して以下のコマンドを実行します。
    # Windows (NVIDIA GPU)
    .\run_nvidia_gpu.bat
    
    # Linux/macOS (GPU利用)
    python main.py --cuda
    
    # CPU利用 (非常に遅いので非推奨)
    python main.py --cpu
    

初回起動時には、必要な依存ライブラリが自動的にインストールされます。これには数分かかる場合があります。インストールが完了すると、Webブラウザが自動的に起動し、ComfyUIのインターフェースが表示されます。

ComfyUIの基本的な使い方

ComfyUIのインターフェースは、ノードと呼ばれるブロックを接続して「ワークフロー」を構築する形式です。

1. インターフェースの概要

  • 中央のキャンバス: ノードを配置し、接続する作業スペースです。
  • 右側のサイドバー: 選択したノードのパラメータ設定や、生成された画像が表示されます。
  • Prompt: 画像生成の指示文(プロンプト)を入力します。

2. ノードとワークフローの概念

ComfyUIでは、画像を生成するための各ステップ(モデル読み込み、プロンプト処理、サンプリング、画像保存など)を「ノード」として視覚的に連結します。これらのノードの繋がりが「ワークフロー」となり、画像生成のパイプラインを形成します。

3. 基本的な画像生成ワークフローの構築

起動直後のデフォルトワークフローは、最も基本的な画像生成の流れを示しています。

  1. Load Checkpoint: 使用するStable Diffusionのベースモデルを読み込みます。モデル名を選択します。
  2. CLIP Text Encode (Positive): 生成したい画像の内容(ポジティブプロンプト)をテキストで入力し、AIが理解できる形式に変換します。
  3. CLIP Text Encode (Negative): 生成したくない要素(ネガティブプロンプト)を入力します。
  4. KSampler: 画像生成の中核となるノードです。
    • seed: 画像の多様性を制御するシード値。-1でランダム。
    • steps: 生成ステップ数。通常20〜30程度。
    • cfg: Classifier Free Guidance Scale。プロンプトへの忠実度。通常7〜10程度。
    • sampler_name: サンプラーアルゴリズム(例: dpmpp_2m_sde_gpu)。
    • scheduler: スケジューラ(例: karras)。
  5. VAE Decode: Latent空間で生成された画像を、人間が見られる形式にデコードします。
  6. Save Image: 生成された画像を保存します。

これらのノードは、ノードの右側の出力ポートと、別のノードの左側の入力ポートをドラッグ&ドロップで接続することで連結されます。

4. ノードの追加とパラメータ設定

  • ノードの追加: キャンバスの空いている場所を右クリックし、「Add Node」からカテゴリーを選んで追加します。または、右クリックメニューから検索して追加することもできます。
  • パラメータ設定: ノードをクリックして選択すると、右側のサイドバーにそのノードの設定項目が表示されます。ここでプロンプトを入力したり、各種数値を調整したりします。

5. 画像生成の実行とワークフローの保存

  • プロンプトや設定が完了したら、右側のサイドバー下部にある「Queue Prompt」ボタンをクリックして画像生成を開始します。
  • 生成された画像はComfyUI/outputフォルダに保存されます。
  • 構築したワークフローは、右側のサイドバー下部の「Save」ボタンでJSONファイルとして保存できます。次回以降は「Load」で読み込み、再利用可能です。

2026年におけるComfyUIの応用と拡張性

2026年5月現在、ComfyUIは単なる画像生成ツールにとどまらず、そのモジュール性を活かした多岐にわたる応用が可能です。

1. 高度な画像生成テクニック

ComfyUIのノードベースのシステムは、より複雑な画像生成テクニックを容易に実現します。

  • ControlNet: ポーズ指定、線画からの生成、深度情報からの生成など、画像生成の自由度を格段に高めます。複数のControlNetを同時に適用するワークフローも簡単に構築できます。
  • LoRAの複数適用: 複数のLoRAモデルを組み合わせて、より詳細なスタイルやキャラクターの表現が可能です。
  • アップスケーリング: Upscale LatentESRGANなどのノードを組み合わせることで、高解像度かつ高品質な画像を生成できます。

2. 動画生成とアニメーション

ComfyUIは、AnimateDiffやSVD(Stable Video Diffusion)といった動画生成モデルとの連携において、その真価を発揮します。複雑なフレーム補間やスタイル適用、動きの制御といった動画生成のパイプラインを、ノードを繋ぐだけで視覚的に構築できるため、従来のスクリプトベースの手法よりも圧倒的に効率的です。

3. コミュニティとカスタムノードの進化

ComfyUIの大きな強みは、活発なコミュニティによるカスタムノードの豊富さです。

  • ComfyUI Manager: カスタムノードのインストールと管理を簡単に行えるツールです。これにより、新しい機能やモデルに迅速に対応できます。
  • Civitai: 多くのユーザーが自身のワークフローを共有しており、気に入った画像を生成したワークフローをダウンロードして利用できます。

⚠️ 注意: ComfyUIは非常に柔軟性が高い反面、ノードの種類や設定が多岐にわたるため、最初は戸惑うかもしれません。まずは本記事で紹介した基本的なワークフローから始め、徐々にカスタムノードや高度な設定に挑戦していくことをお勧めします。

ComfyUIは、2026年においてもAI画像生成の最前線を走る強力なツールであり続けています。そのモジュール性と拡張性は、初心者からベテランまで、あらゆるユーザーの創造性を刺激することでしょう。ぜひこの機会にComfyUIの世界に飛び込み、あなただけのAIアートを創造してみてください。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)