⚙️
AI・機械学習

【2026年最新版】ComfyUIのインストールから使い方まで初心者向け徹底解説

#ComfyUI #Stable Diffusion #AI画像生成 #インストール #使い方 #初心者 #ワークフロー #GPU
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

2026年4月現在、ComfyUIはStable Diffusionなどの画像生成AIを扱う上で、その柔軟性と高いカスタマイズ性から、初心者から上級者まで幅広いユーザーに選ばれています。従来のWebUIとは異なり、視覚的なノードベースのワークフローで画像生成プロセスを構築できるため、直感的に仕組みを理解し、より複雑な表現を追求することが可能です。

ComfyUIのインストール手順(2026年4月版)

ComfyUIをローカルPCにインストールする手順は、以下の通りです。NVIDIA製GPUを搭載したPCが推奨されます。

1. システム要件の確認

まず、以下の要件を満たしているか確認してください。

  • OS: Windows 10/11, macOS (Apple Silicon), Linux
  • Python: Python 3.10 以降(推奨は3.11または3.12)
  • GPU: NVIDIA製GPU(VRAM 8GB以上推奨)。AMD GPUやApple Siliconでも動作しますが、NVIDIA GPUが最も安定しており、パフォーマンスも優れています。

⚠️ 注意: VRAMが不足している場合、大規模なモデルや高解像度での画像生成が困難になることがあります。最低でも6GB、快適な利用には8GB以上を確保しましょう。

2. ComfyUIのダウンロードと初期設定

ComfyUIはGitHubからクローンするのが最も一般的です。

  1. Gitのインストール: まだGitをインストールしていない場合は、Git公式サイトからダウンロードしてインストールしてください。
  2. ComfyUIのリポジトリをクローン: コマンドプロンプトまたはターミナルを開き、ComfyUIをインストールしたいディレクトリに移動し、以下のコマンドを実行します。
    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  3. 依存関係のインストール: クローンしたディレクトリ内で、必要なPythonライブラリをインストールします。
    pip install -r requirements.txt
    
    GPUの種類に応じて、追加の依存関係をインストールする場合があります。例えば、NVIDIA GPUの場合はpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121(CUDA 12.1の場合)のようにPyTorchをインストールします。詳細はPyTorch公式サイトを参照してください。

3. モデルファイルの準備

画像生成AIの心臓部となるモデルファイル(チェックポイント)をダウンロードし、適切な場所に配置します。

  • モデルのダウンロード: Hugging Faceなどのプラットフォームから、目的のStable Diffusionモデル(例: SDXL Base Model, Stable Diffusion 3.0)をダウンロードします。SDXL Base Modelのファイルサイズは約7GBです。
  • モデルの配置: ダウンロードしたモデルファイル(.safetensorsまたは.ckpt形式)を、ComfyUIディレクトリ内のComfyUI/models/checkpoints/フォルダに配置します。

💡 ポイント: ComfyUI Managerなどのカスタムノードを導入すると、モデルのダウンロードや管理がUI上から行えるようになり、さらに便利になります。

ComfyUIの基本的な使い方

インストールが完了したら、ComfyUIを起動して画像生成を始めましょう。

1. ComfyUIの起動

ComfyUIディレクトリ内で、以下のコマンドを実行します。

python main.py

Webブラウザが自動的に開き、ComfyUIのユーザーインターフェースが表示されます。もし開かない場合は、ターミナルに表示されるURL(通常はhttp://127.0.0.1:8188)にアクセスしてください。

2. ワークフローの基本

ComfyUIのUIは、ノードと呼ばれるブロックを接続して画像生成のワークフローを構築します。

  1. ノードの追加: 空白のキャンバス上で右クリックし、「Add Node」から必要なノードを選択します。
    • Load Checkpoint: 使用するモデルを読み込みます。
    • CLIP Text Encode: プロンプト(呪文)をAIが理解できる形式に変換します。PositiveとNegativeの2つを用意するのが一般的です。
    • Empty Latent Image: 画像の初期サイズ(例: 1024x1024)を設定します。
    • KSampler: 画像生成の中核を担うノード。ステップ数、サンプラー、CFGスケールなどを設定します。
    • VAE Decode: 生成された潜在空間の画像を、人間が見られる画像にデコードします。
    • Save Image: 生成された画像を保存します。
  2. ノードの接続: 各ノードの出力ポート(右側)と入力ポート(左側)をドラッグして接続します。例えば、「Load Checkpoint」のMODEL出力を「KSampler」のmodel入力に接続します。
  3. パラメータの設定: 各ノードをクリックすると、そのノードの設定パネルが表示されます。ここでプロンプトを入力したり、画像サイズや生成ステップ数を調整したりします。

3. 画像生成の実行

ワークフローを構築し、必要なパラメータを設定したら、右下の「Queue Prompt」ボタンをクリックします。ノードが順番に実行され、画像が生成されます。

2026年におけるComfyUIの最新動向と活用事例

2026年4月現在、ComfyUIはさらなる進化を遂げており、特に以下の点で注目されています。

1. カスタムノードのエコシステムの拡大

ComfyUIの最大の強みであるカスタムノードは、その種類が爆発的に増加しています。2026年には、以下のような高度な機能を持つノードが標準的に利用されています。

  • アニメーション生成ノード: 静止画だけでなく、テキストや画像から高品質なアニメーションを生成するノードが多数登場。
  • 3D連携ノード: 3Dモデルや深度マップをインポートし、それを元に多様な角度からの画像を生成したり、テクスチャを自動生成したりするワークフローが普及。
  • リアルタイム編集ノード: 画像を生成しながら、特定の領域をリアルタイムで修正・調整できるノードが登場し、インタラクティブな創作体験を提供しています。

2. 最新モデルへの最適化と高速化

Stable Diffusion 3.0や、さらにその先の高性能モデル(仮称: Stable Diffusion 4.0)がComfyUIでフル活用されています。

  • SDXL Turbo / LCM LoRAの標準化: 高速生成技術がComfyUIのワークフローに標準で組み込まれ、わずか数ステップで高品質な画像を生成できるようになりました。これにより、試行錯誤のサイクルが大幅に短縮されています。
  • マルチモーダル対応: テキストだけでなく、音声入力や動画入力に対応したノードも登場し、より直感的で多様なメディアからの画像生成が可能になっています。

3. クラウド環境での利用の普及

ローカルPCのスペックに依存せず、クラウドGPUサービスを利用してComfyUIを動かすのが一般的になっています。

サービス名 特徴 時間単価(GPU種類による) 月額料金(プランによる)
RunPod 柔軟なGPU選択、時間貸し、Dockerイメージベース 0.25ドル/時間 -
Google Colab Pro Google環境との連携が容易、無料枠あり、Pro/Pro+で高性能GPUが利用可能 - 約10ドル/月
Paperspace Gradient Jupyter Notebookベース、ComfyUIテンプレートが豊富 0.50ドル/時間〜 8ドル/月〜

💡 ポイント: これらのサービスでは、ComfyUIのセットアップ済み環境が提供されていることが多く、初心者でもすぐに利用を開始できます。ワークフローのエクスポート・インポート機能が強化され、ローカルとクラウド間での作業移行もスムーズです。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)