🎨
AI・機械学習

ComfyUIのインストールから使い方まで徹底解説!初心者向けガイド【2026年最新版】

#ComfyUI #AI画像生成 #Stable Diffusion #インストール #使い方 #初心者 #ワークフロー #SDXL
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIは、ノードベースの直感的なインターフェースでAI画像生成を行うための強力なツールです。2026年5月現在、Stable Diffusionの画像生成において、その柔軟性と効率性から多くのプロフェッショナルやクリエイターに選ばれています。従来のWeb UIと比較して、より複雑なワークフローを構築でき、メモリ効率も高いため、限られたGPUリソースでも高度な生成が可能です。

ComfyUIのインストール手順(2026年5月版)

ComfyUIをローカル環境に導入する手順は以下の通りです。基本的にはPythonとGitがあれば簡単に始められます。

1. 動作環境の確認と準備

ComfyUIはGPUを利用することで真価を発揮します。NVIDIA製GPUを推奨します。

推奨GPU VRAM 備考
NVIDIA GeForce RTX 3060以上 12GB以上 快適な動作、SDXL推奨
NVIDIA GeForce RTX 2060以上 8GB以上 動作可能、SDXLは厳しい場合あり
AMD Radeon RX 6700XT以上 12GB以上 ROCm環境構築が必要、Windowsでは現状NVIDIAが優位

💡 ポイント: VRAMは多いほど、より大きな画像を生成したり、複雑なワークフローを構築したりできます。特に**Stable Diffusion XL (SDXL)**モデルを使用する場合は、最低でも12GBのVRAMを強く推奨します。

事前に以下のソフトウェアをインストールしておきましょう。

  • Python: バージョン3.10.xを推奨します。公式サイトからダウンロードし、インストール時に「Add Python to PATH」にチェックを入れるのを忘れないでください。
  • Git: ソースコードのクローンに必要です。公式サイトからダウンロードし、デフォルト設定でインストールしてください。

2. ComfyUIのダウンロードとセットアップ

  1. ComfyUIリポジトリのクローン 任意の場所に新しいフォルダ(例: C:\ComfyUI)を作成し、その中でコマンドプロンプトまたはPowerShellを開きます。以下のコマンドを実行してComfyUIのリポジトリをクローンします。

    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  2. 依存関係のインストール クローンしたComfyUIフォルダ内で、必要なPythonライブラリをインストールします。GPUの種類に応じてコマンドが異なります。

    • NVIDIA GPUの場合:
      pip install -r requirements.txt --extra-index-url https://download.pytorch.org/whl/cu121
      

      💡 ポイント: cu121はCUDAバージョン12.1用を意味します。お使いの環境に合わせて適宜変更してください。多くの場合は上記で問題ありません。

    • AMD GPUの場合 (Linux/ROCm環境):
      pip install -r requirements.txt --extra-index-url https://download.pytorch.org/whl/rocm5.6
      

      ⚠️ 注意: WindowsでのAMD GPUサポートはまだ実験的であり、NVIDIAほど安定していません。

  3. モデルファイルの配置 Stable Diffusionモデルは別途ダウンロードして配置する必要があります。CivitaiやHugging Faceなどで公開されているモデル(例: SDXL 1.0 base model)をダウンロードしてください。SDXL Baseモデルは通常7GB程度のファイルサイズがあります。

    • Checkpoint (基本モデル): ComfyUI/models/checkpoints フォルダに.safetensorsまたは.ckptファイルを配置します。
    • LoRA: ComfyUI/models/loras フォルダに.safetensorsファイルを配置します。
    • ControlNet: ComfyUI/models/controlnet フォルダに.safetensorsファイルを配置します。

    💡 ポイント: モデルの管理を効率化するために、後述のComfyUI Managerを導入することを強く推奨します。

3. ComfyUIの起動

ComfyUIフォルダ内で以下のコマンドを実行します。

python main.py

初回起動時は必要なファイルのダウンロードやキャッシュの生成に数分かかる場合があります。起動が完了すると、Webブラウザでhttp://127.0.0.1:8188が自動的に開かれるか、コマンドプロンプトにURLが表示されます。

⚠️ 注意: コマンドプロンプトを閉じるとComfyUIも停止します。バックグラウンドで実行したい場合は、別途ツールを使用するか、ターミナルを残したままにしてください。

ComfyUIの基本的な使い方(初心者向け)

ComfyUIのWeb UIは、ノードと呼ばれるブロックを接続してワークフローを構築することで画像を生成します。

1. インターフェースの概要

  • グラフエリア: ノードを配置し、線で接続してワークフローを構築するメインの領域です。
  • プロパティパネル (右側): 選択したノードの設定を変更したり、ワークフロー全体の情報を表示したりします。
  • Prompt/Queueパネル (下部): 画像生成の実行(Queue Prompt)や、ワークフローの保存・読み込みを行います。

2. 基本的なワークフローの構築

ComfyUIを起動すると、デフォルトで基本的なワークフローが表示されます。このワークフローを理解することが最初のステップです。

  1. ノードの追加: グラフエリアの何もない場所で右クリックし、「Add Node」から必要なノードを選択します。または、検索窓にノード名を入力して絞り込むこともできます。
  2. ノードの接続: 各ノードの入力(左側)と出力(右側)にある小さな丸(ポート)をドラッグ&ドロップで線でつなぎます。線の色はデータ型を示します(例: モデルは水色、潜在画像は紫色)。

基本的な画像生成ワークフローは以下のノードで構成されます。

  • Load Checkpoint: 使用する基本モデル(例: SDXL Base)を読み込みます。
  • CLIPTextEncode (Positive): ポジティブプロンプト(生成したい内容)を入力します。
  • CLIPTextEncode (Negative): ネガティブプロンプト(生成したくない内容)を入力します。
  • Empty Latent Image: 生成する画像のサイズとバッチ数を設定します。例: 幅1024、高さ1024。
  • KSampler: 画像生成の核となるノードです。サンプラー、ステップ数、CFGスケール、シード値などを設定します。
  • VAE Decode: KSamplerで生成された潜在画像データを、人間が視覚的に認識できる画像データに変換します。
  • Save Image: 生成された画像を保存します。ファイル形式や品質を設定できます。

3. 画像生成の実行

  1. プロンプトの入力: 「CLIPTextEncode (Positive)」と「CLIPTextEncode (Negative)」ノードのテキストボックスに、それぞれプロンプトを入力します。
  2. 設定の調整: 「Empty Latent Image」で画像サイズを、「KSampler」でステップ数(例: 20〜30)、CFGスケール(例: 7〜8)、シード値などを調整します。
  3. 生成開始: 画面下部の「Queue Prompt」ボタンをクリックすると、ワークフローが左から右へ順に実行され、画像が生成されます。

💡 ポイント: 生成された画像は「Save Image」ノードを介してComfyUI/outputフォルダに保存されます。

2026年におけるComfyUI活用のポイントと注意点

1. ComfyUI Managerによる拡張機能管理

2026年5月現在、ComfyUI Manager v1.3.2(仮のバージョン)はComfyUIの必須ツールとなっています。これを使用することで、カスタムノードのインストール、モデルのダウンロード、ワークフローの更新などが非常に簡単に行えます。

  • インストール方法: ComfyUI/custom_nodesフォルダにManagerのリポジトリをクローンし、依存関係をインストールします。
    cd custom_nodes
    git clone https://github.l5d.cn/ltdrdata/ComfyUI-Manager.git
    cd ComfyUI-Manager
    pip install -r requirements.txt
    
    その後ComfyUIを再起動すると、画面右下に「Manager」ボタンが表示されます。

2. 最新モデルとアドオンの活用

ComfyUIは、Stable Diffusion XL 1.0SDXL Turboなどの最新モデルにいち早く対応し、そのポテンシャルを最大限に引き出せます。また、ControlNet(画像構造やポーズを制御)、LoRA(特定のスタイルやキャラクターを追加)、IP-Adapter(参照画像からのスタイル転送)などの多様なアドオン(カスタムノード)もComfyUI Managerから簡単に導入・利用できます。これにより、初心者でもより高度で精密な画像生成が可能です。

3. クラウドGPUの活用

ローカル環境のGPUが不足している場合、RunPodやVast.aiなどのクラウドGPUサービスを利用することも一般的になっています。これらのサービスでは、高性能なGPU(例: NVIDIA A100)を時間単位で借りることができ、複雑なワークフローや高解像度画像の生成も快適に行えます。月額費用は利用時間やGPUの種類によりますが、例えばNVIDIA RTX A6000を1時間あたり約0.5ドルで利用できるプランもあります。

⚠️ 注意: クラウドGPUを利用する場合、データ転送量やストレージ費用も発生することがあります。利用前に料金体系をよく確認しましょう。

ComfyUIはその学習コストがある一方で、一度慣れてしまえば他のAI画像生成ツールでは実現できないような自由度と効率性を提供します。本記事を参考に、ぜひComfyUIでの画像生成を楽しんでください。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)