🎨
AI・機械学習

ComfyUIインストールから使い方まで徹底解説!初心者ガイド【2026年最新版】

#ComfyUI #インストール #使い方 #初心者 #Stable Diffusion

ComfyUIは、Stable Diffusionなどの画像生成AIをノードベースのワークフローで操作できる強力なツールです。その高いカスタマイズ性と効率性から、2026年5月時点においても、初心者からプロフェッショナルまで幅広いユーザーに支持されています。本記事では、ComfyUIのインストールから基本的な使い方までを、初心者向けにステップバイステップで解説します。

ComfyUIとは? 2026年におけるその魅力

ComfyUIは、Stable Diffusionをはじめとする拡散モデルを、グラフィカルなノードベースのインターフェースで操作できるのが最大の特徴です。従来のWebUI(例: AUTOMATIC1111版Stable Diffusion web UI)とは異なり、画像生成の各ステップ(モデルの読み込み、プロンプトのエンコード、サンプリング、デコードなど)が個別のノードとして視覚化され、これらを線でつなぐことで複雑なワークフローを構築できます。

2026年5月現在、ComfyUIは以下の点で特に注目されています。

  • 高いカスタマイズ性: ノードの組み合わせは無限大で、独自のワークフローを自由に構築・共有できます。
  • 効率的なリソース利用: 必要な処理だけを実行するため、GPUメモリの消費を抑え、高速な画像生成が可能です。特にバッチ処理や複雑なワークフローでの効率は顕著です。
  • 透明性と再現性: 各処理が明確に可視化されるため、生成プロセスの理解が深まり、同じ結果を再現しやすくなります。
  • 活発なコミュニティと豊富なカスタムノード: コミュニティによって開発された多数のカスタムノードが存在し、ControlNet、IP-Adapter、AnimateDiffなど、最新の技術を素早く取り込むことができます。

この柔軟性と効率性こそが、ComfyUIが2026年においても画像生成AIの最前線にいる理由です。

ComfyUIのインストール:初心者向けステップバイステップガイド (2026年5月版)

ComfyUIのインストールは、いくつかのステップを踏むことで比較的簡単に行えます。ここではWindows環境を前提に解説しますが、macOSやLinuxでも同様の概念で進められます。

1. 前提条件の確認と準備

ComfyUIを快適に動作させるためには、以下の環境が推奨されます。

  • OS: Windows 10/11 (64bit)
  • GPU: NVIDIA GeForce RTX 30シリーズ以降。8GB以上のVRAMを推奨しますが、理想的には12GB~16GBのVRAMを搭載したGPU(例: RTX 4070/4080/4090)があれば、より複雑なワークフローや高解像度画像生成がスムーズに行えます。
  • Python: Python 3.10.x または 3.11.x (2026年5月時点での推奨バージョン)。公式サイトからインストーラーをダウンロードし、「Add Python to PATH」にチェックを入れてインストールしてください。
  • Git: バージョン管理ツールGitをインストールします。公式サイトから最新版をダウンロードしてインストールしてください。
  • ディスク容量: ComfyUI本体は数GBですが、Stable DiffusionモデルやLoRA、ControlNetなどの追加モデルを含めると、最低50GB、推奨200GB以上の空き容量が必要です。

⚠️ 注意: 複数のPythonバージョンがインストールされている場合、パスが競合することがあります。可能であれば、ComfyUI専用の仮想環境を構築するか、単一のPythonバージョンを使用することをお勧めします。

2. ComfyUI本体のダウンロードとセットアップ

  1. ComfyUIのリポジトリをクローンする: 任意の場所にComfyUIをインストールするフォルダ(例: C:\ComfyUI)を作成し、その中でコマンドプロンプトまたはPowerShellを開きます。以下のコマンドを実行してComfyUIをダウンロードします。

    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  2. 依存関係のインストール: ComfyUIフォルダ内で、必要なライブラリをインストールします。NVIDIA GPUを使用している場合は、CUDA対応版をインストールします。

    pip install -r requirements.txt
    

    または、NVIDIA GPUユーザー向けには、以下を実行することもできます。

    pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
    pip install -r requirements.txt
    

    これはPyTorchのCUDA 12.1バージョンを指定していますが、お使いの環境のCUDAバージョンに合わせてcu118などに変更してください。

3. モデルファイルの配置

Stable Diffusionモデルは、ComfyUIのインストールフォルダ内の特定の場所に配置する必要があります。

  • Stable Diffusionチェックポイントモデル (.safetensors, .ckpt): ComfyUI\models\checkpoints フォルダに配置します。 例: ComfyUI\models\checkpoints\sd_xl_base_1.0.safetensors

  • VAE (.vae.safetensors): ComfyUI\models\vae フォルダに配置します。

  • LoRA (.safetensors): ComfyUI\models\loras フォルダに配置します。

  • ControlNetモデル: ComfyUI\models\controlnet フォルダに配置します。

💡 ポイント: Civitaiなどのモデル配布サイトからダウンロードしたモデルは、必ず上記の指定されたフォルダに配置してください。

ComfyUIの基本的な使い方:ワークフローの理解と実行

インストールが完了したら、実際にComfyUIを起動して画像生成を試してみましょう。

1. 起動とUIの概要

  1. ComfyUIの起動: ComfyUIフォルダ内に移動し、Windowsユーザーはrun_nvidia_gpu.batをダブルクリックして起動します。macOS/Linuxユーザーは、ターミナルで以下のコマンドを実行します。

    python main.py --cuda-device 0
    

    --cuda-device 0は、複数のGPUがある場合にどのGPUを使用するか指定するオプションです。)

  2. ブラウザでアクセス: 起動に成功すると、通常は自動的にブラウザが開き、http://127.0.0.1:8188にアクセスされます。これがComfyUIのユーザーインターフェースです。

  3. UIの構成:

    • キャンバス: ノードを配置し、線でつないでワークフローを構築するメイン領域。
    • ノード: 各処理を表すブロック。右クリックで追加できます。
    • エッジ: ノード間を接続する線。データの流れを示します。
    • サイドバー: 画像生成の実行ボタン(Queue Prompt)、ワークフローの保存/読み込み、生成履歴などが表示されます。

2. ワークフローの構築と画像生成

ComfyUIは起動時にデフォルトのワークフローが読み込まれています。このワークフローを使って、基本的なテキストto画像生成を体験してみましょう。

  1. プロンプトの入力: CLIPTextEncode (Prompt)ノードのテキストボックスに、生成したい画像のポジティブプロンプト(例: a beautiful girl, cyberpunk city, neon lights, highly detailed)を入力します。 もう一つのCLIPTextEncode (Negative Prompt)ノードには、ネガティブプロンプト(例: ugly, deformed, low quality, bad anatomy)を入力します。

  2. モデルの選択: Load Checkpointノードの「ckpt_name」で、事前に配置したStable Diffusionモデルを選択します。

  3. サンプリング設定: KSamplerノードで、以下の主要な設定を行います。

    • seed: 画像のシード値。-1にすると毎回ランダムになります。
    • steps: サンプリングステップ数。通常20~30程度。
    • cfg: Classifier Free Guidanceスケール。プロンプトへの忠実度。通常7~9程度。
    • sampler_name: サンプラーの種類。dpmpp_2m_sdeeuler_aなどが一般的です。
    • scheduler: スケジューラー。karrasexponentialなど。
  4. 画像生成の実行: サイドバーにある「Queue Prompt」ボタンをクリックします。すると、ワークフローが左から右へ順に実行され、画像が生成されます。

  5. 結果の確認と保存: Save ImageノードまたはPreview Imageノードに生成された画像が表示されます。Save Imageノードは、生成された画像を自動的にComfyUI\outputフォルダに保存します。

3. ワークフローの保存と読み込み

構築したワークフローはJSON形式で保存・共有できます。

  • 保存: サイドバーの「Save」ボタンをクリックすると、現在のワークフローがJSONファイルとしてダウンロードされます。
  • 読み込み: サイドバーの「Load」ボタンをクリックし、保存したJSONファイルを選択することで、ワークフローを復元できます。
  • 画像からのワークフロー読み込み: ComfyUIで生成されたPNG画像には、その画像を生成したワークフロー情報(PNG Info)が埋め込まれています。この画像をキャンバスにドラッグ&ドロップするだけで、そのワークフローを再現できます。

ComfyUIをさらに使いこなすためのヒント

ComfyUIの真価は、カスタムノードとクラウド環境を組み合わせることで発揮されます。

カスタムノードの導入

ComfyUIの機能を拡張する上で不可欠なのが、ComfyUI Managerです。これを導入することで、カスタムノードの検索・インストール・管理が非常に簡単になります。

  1. ComfyUI Managerのインストール: ComfyUI\custom_nodesフォルダに移動し、以下のコマンドを実行します。

    cd custom_nodes
    git clone https://github.com/ltdrdata/ComfyUI-Manager.git
    

    その後、ComfyUIを再起動すると、Managerノードが利用可能になります。

  2. カスタムノードのインストール: ComfyUI起動後、Managerのメニューから「Install Custom Nodes」を選択し、必要なノードを検索してインストールします。

クラウド環境での利用

高性能なGPUを所有していない場合でも、クラウドサービスを利用することでComfyUIを快適に利用できます。2026年5月時点では、RunPodやVast.aiなどのサービスが人気です。

サービス名 特徴 料金例 (RTX 4090/A6000)
RunPod 事前設定されたComfyUIテンプレートが豊富。GPU選択肢も多岐にわたる。 $0.25~$0.70/時間
Vast.ai コストパフォーマンスに優れる。多様なGPUインスタンスを選択可能。 $0.15~$0.60/時間
Google Colab 無料枠があるが、長時間利用や高性能GPUは有料プラン ($9.99/月~) が必要。 無料~$0.70/時間 (有料プラン)

💡 ポイント: クラウドサービスを利用する際は、データ転送量やストレージ料金も考慮に入れる必要があります。また、無料枠は制限が多いため、本格的な利用には有料プランの検討が不可欠です。

ComfyUIは奥が深く、使いこなすにはある程度の学習が必要ですが、その分、あなたの創造性を最大限に引き出してくれるツールとなるでしょう。このガイドを参考に、ぜひComfyUIの世界に飛び込んでみてください。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)