🤖
AI・機械学習

【2026年最新】ComfyUIインストールと使い方を初心者向けに徹底解説!画像生成AIの基本から応用まで

#ComfyUI #インストール #使い方 #初心者 #画像生成AI #Stable Diffusion #ワークフロー #GPU
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

2026年3月現在、画像生成AIの分野でComfyUIは、その圧倒的な柔軟性効率性から、初心者からプロまで幅広いユーザーに選ばれています。従来のWebUIと比較して、ノードベースのインターフェースにより、生成プロセスを視覚的に、かつ細かく制御できる点が最大の魅力です。GPUリソースを効率的に使用できるため、限られたスペックの環境でもパフォーマンスを最大限に引き出すことが可能です。

ComfyUIのインストール方法 (初心者向け)

ComfyUIを始めるには、いくつかの準備とステップが必要です。ここでは、Windows環境を想定した最も一般的なインストール方法を解説します。

1. 動作環境の確認と準備

ComfyUIの利用には、NVIDIA製GPUがほぼ必須です。

項目 最低要件 (2026年3月時点) 推奨要件 (2026年3月時点)
OS Windows 10/11 (64bit) Windows 10/11 (64bit), Linux
GPU NVIDIA GeForce RTX 20シリーズ以上 (VRAM 8GB以上) NVIDIA GeForce RTX 30シリーズ/40シリーズ (VRAM 12GB以上)
CPU Intel Core i5相当以上 Intel Core i7/AMD Ryzen 7相当以上
RAM 16GB以上 32GB以上
Python Python 3.10.x または 3.11.x Python 3.10.x または 3.11.x
ディスク容量 50GB以上 (モデル含む) 100GB以上 (モデル含む)

⚠️ 注意: VRAMが8GB未満のGPUでは、高性能なモデル(例: Stable Diffusion XL)の利用が困難になる場合があります。無料のクラウドGPUサービス(Google Colabなど)の利用も検討しましょう。

事前に以下のソフトウェアをインストールしておきましょう。

  • Python: 公式サイトから推奨バージョン(例: Python 3.10.11)をダウンロードし、インストール時に「Add Python to PATH」にチェックを入れるのを忘れないでください。
  • Git: 公式サイトからダウンロードし、デフォルト設定でインストールします。

2. ComfyUI本体のダウンロードとセットアップ

  1. ComfyUIリポジトリのクローン ComfyUIをインストールしたいディレクトリ(例: C:\AI\ComfyUI)に移動し、コマンドプロンプトまたはPowerShellを開いて以下のコマンドを実行します。

    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  2. 依存関係のインストール クローンしたComfyUIディレクトリ内で、必要なライブラリをインストールします。

    pip install -r requirements.txt
    

    NVIDIA GPUを使用している場合は、CUDA対応のPyTorchをインストールするために、追加で以下のコマンドを実行します。

    pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
    

    💡 ポイント: cu121はCUDA 12.1に対応しています。お使いの環境のCUDAバージョンに合わせて変更してください。

3. モデルファイルの準備

画像生成AIの心臓部であるモデルファイル(チェックポイントファイル)をダウンロードし、適切な場所に配置します。

  1. モデルファイルのダウンロード CivitaiやHugging Faceなどのサイトから、お好みのStable Diffusionモデル(例: Stable Diffusion XL Base)をダウンロードします。SDXL Baseモデルは通常約6GB程度のファイルサイズがあります。

  2. モデルファイルの配置 ダウンロードしたモデルファイル(.safetensors.ckpt形式)を、ComfyUI/models/checkpoints/ディレクトリ内に配置します。

4. ComfyUIの起動

すべての準備が整ったら、ComfyUIを起動します。

  1. 起動スクリプトの実行 ComfyUIディレクトリ内で、以下のコマンドを実行します。

    python main.py --cuda
    

    これにより、WebブラウザでComfyUIのインターフェースが開きます。通常はhttp://127.0.0.1:8188にアクセスします。

⚠️ 注意: VRAMが不足している場合、python main.py --lowvrampython main.py --novramオプションを試してみてください。ただし、生成速度が大幅に低下する可能性があります。

ComfyUIの基本的な使い方 (ワークフローの理解)

ComfyUIは「ノード」と呼ばれる機能ブロックを「ワイヤー」で繋ぎ合わせることで、画像生成の「ワークフロー」を構築します。

1. ワークフローの基本構成

ComfyUIを起動すると、デフォルトでシンプルな画像生成ワークフローが表示されます。主要なノードとその役割は以下の通りです。

  1. Load Checkpoint:

    • 使用するベースモデル(Stable Diffusion XLなど)を読み込みます。
    • ckpt_nameドロップダウンから、models/checkpointsに配置したモデルを選択します。
  2. CLIP Text Encode (Positive Prompt) / CLIP Text Encode (Negative Prompt):

    • 生成したい画像の指示(プロンプト)と、生成したくない要素(ネガティブプロンプト)を入力します。
    • 入力されたテキストは、AIが理解できる数値データに変換されます。
  3. KSampler:

    • 画像生成の中核を担うノードです。プロンプトとノイズから画像を生成します。
    • seed: 画像のランダム性を制御します。
    • steps: 生成ステップ数。多いほど詳細になりますが、計算時間も増えます(例: 20〜30ステップが一般的)。
    • cfg: プロンプトへの忠実度。高いほどプロンプトに忠実になりますが、不自然になることもあります(例: 7〜8が一般的)。
    • sampler_name / scheduler: 画像生成アルゴリズムを選択します。
  4. VAE Decode:

    • エンコードされた潜在空間の画像を、人間が見えるピクセル画像に変換します。
  5. Save Image:

    • 生成された画像を保存します。

2. 初めての画像生成

  1. モデルの選択: Load Checkpointノードで、準備したモデルを選択します。
  2. プロンプトの入力: CLIP Text Encode (Positive Prompt)に「a cat sitting on a sofa, photorealistic」、CLIP Text Encode (Negative Prompt)に「ugly, deformed, low quality」などのプロンプトを入力します。
  3. 生成パラメータの調整: KSamplerノードでseed-1(ランダム)、steps25cfg7に設定してみましょう。
  4. 生成の実行: 画面右上の「Queue Prompt」ボタンをクリックします。
  5. 結果の確認: Save Imageノードに生成された画像が表示されます。

💡 ポイント: ComfyUIは、生成プロセス全体が視覚化されているため、各ステップが画像生成にどのように影響するかを直感的に理解できます。

ComfyUIをさらに使いこなすためのヒント

ComfyUIの真価は、カスタムノードや複雑なワークフローを構築できる点にあります。

1. カスタムノードの導入と管理

ComfyUIには、公式にはない様々な機能を追加するカスタムノードが存在します。これらを導入することで、ControlNet、IP-Adapter、LoRA、アップスケールなど、高度な機能をワークフローに組み込むことができます。

  • Comfy Managerの導入: カスタムノードの管理を容易にするために、Comfy Managerを導入するのが一般的です。ComfyUI/custom_nodesディレクトリにManagerのリポジトリをクローンし、起動時に自動的にカスタムノードのインストールや更新を行えるようになります。

    cd custom_nodes
    git clone https://github.com/ltdrdata/ComfyUI-Manager.git
    

    ComfyUIを再起動すると、「Manager」ボタンが追加されます。ここから必要なカスタムノードを検索・インストールできます。

2. ワークフローの共有と活用

ComfyUIのワークフローはJSON形式で保存・ロードできます。

  • ワークフローの保存: 画面右上の「Save」ボタンで現在のワークフローをJSONファイルとして保存できます。
  • ワークフローのロード: 画面右上の「Load」ボタンで保存したJSONファイルを読み込めます。
  • 画像からのワークフロー読み込み: ComfyUIで生成された画像には、その生成に使用されたワークフロー情報がメタデータとして埋め込まれています。画像をComfyUIのキャンバスにドラッグ&ドロップするだけで、そのワークフローを再現できます。

Comfy Workflowsのようなオンラインコミュニティでは、様々なユーザーが作成したワークフローが共有されています。これらを活用することで、複雑な設定をゼロから構築する手間を省き、すぐに高度な画像生成に挑戦できます。

3. パフォーマンス最適化

  • VRAMの効率化: main.py起動時に--lowvram--novramオプションを使用する以外に、ワークフロー内でFree KSamplerFree VAEノードを使用することで、一時的にVRAMを解放し、メモリ使用量を抑えることができます。
  • バッチサイズの調整: KSamplerノードのbatch_sizeを増やすと、一度に複数の画像を生成できます。これにより、GPUを効率的に活用し、総生成時間を短縮できる場合があります。ただし、VRAM消費量も増加するため、GPUスペックに合わせて調整が必要です。
  • FP16/BF16の活用: 多くのモデルはFP16(半精度浮動小数点数)に対応しており、VRAM使用量を削減しつつ、速度向上も期待できます。ComfyUIはデフォルトで対応していることが多いですが、モデルによっては明示的な設定が必要な場合もあります。

これらのヒントを活用することで、ComfyUIの可能性を最大限に引き出し、より高度で効率的な画像生成体験を楽しむことができるでしょう。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)