ComfyUIのインストールと使い方を初心者向けに徹底解説!
ヨミアゲAI編集部
AI音声・動画制作に関する情報をお届けします
ComfyUIは、従来のWeb UIとは一線を画すノードベースのインターフェースで、画像生成AI「Stable Diffusion」のワークフローを極めて柔軟かつ効率的に構築できるツールです。特に2026年5月時点では、そのモジュール性とカスタマイズ性の高さから、研究者からクリエイターまで幅広い層に利用が拡大しています。複雑なワークフローを視覚的に管理し、最適化された画像生成パイプラインを構築できる点が最大の強みです。
ComfyUIのインストール手順
ComfyUIを始めるためのインストール手順は、初心者でも比較的容易です。以下のステップで進めましょう。
1. 前提条件の確認と準備
ComfyUIを動作させるためには、以下の環境が必要です。
- OS: Windows 10/11, Linux (Ubuntu/CentOSなど), macOS
- GPU: NVIDIA製GPU (RTX 30シリーズ以降推奨)
- VRAM: 最低8GB、推奨12GB以上。SDXLなどの大規模モデルや複雑なワークフローには16GB以上が望ましいです。
- Python: Python 3.10.x以上(推奨は3.12.x)
- Git: 最新バージョン
💡 ポイント: PythonとGitは事前に公式サイトからダウンロードし、インストールを完了させておいてください。特にPythonは、インストール時に「Add Python to PATH」にチェックを入れることを忘れないようにしましょう。
2. ComfyUI本体のダウンロード
ComfyUIはGitHubからクローンするのが最も一般的です。
- 任意のディレクトリ(例:
C:\AI)に移動し、そこでコマンドプロンプトまたはターミナルを開きます。 - 以下のコマンドを実行して、ComfyUIのリポジトリをクローンします。
git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI
3. 必要な依存関係のインストール
クローンしたディレクトリ内で、ComfyUIが動作するために必要なライブラリをインストールします。
pip install -r requirements.txt
⚠️ 注意: Python環境が複数ある場合、
python -m pip install -r requirements.txtのように明示的に指定することをお勧めします。また、GPUドライバーは最新の状態に更新しておきましょう。
4. モデルの配置
Stable Diffusionのモデルファイル(.ckpt, .safetensors)を適切な場所に配置します。
- Stable Diffusion 1.5/2.1モデル:
ComfyUI/models/checkpoints - SDXLモデル:
ComfyUI/models/checkpoints - LoRAモデル:
ComfyUI/models/loras - ControlNetモデル:
ComfyUI/models/controlnet - VAEモデル:
ComfyUI/models/vae
💡 ポイント: CivitaiやHugging Faceなどでダウンロードしたモデルを、上記ディレクトリに配置してください。
5. ComfyUIの起動
インストールとモデルの配置が完了したら、ComfyUIを起動します。
python main.py --gpu-id 0 # 複数のGPUがある場合、使用するGPUを指定
このコマンドを実行すると、ブラウザが自動的に開き、ComfyUIのユーザーインターフェースが表示されます。
| GPUモデル | 推奨VRAM | 性能目安 (SDXL生成速度) | 費用目安 (新品) |
|---|---|---|---|
| NVIDIA RTX 3060 | 12GB | 標準 | 5万円~ |
| NVIDIA RTX 4070 | 12GB | 良好 | 8万円~ |
| NVIDIA RTX 4090 | 24GB | 最速 | 20万円~ |
ComfyUIの基本的な使い方
ComfyUIのインターフェースは、ノードと呼ばれるブロックと、それらを繋ぐエッジで構成されます。これにより、画像生成の全プロセスを視覚的に設計できます。
1. UIの基本構成
- ノード: 画像生成の各ステップ(モデル読み込み、プロンプト入力、サンプリング、画像保存など)を担うブロックです。
- エッジ: ノード間を繋ぎ、データの流れを示します。左から右へ、データが流れるように接続します。
- ワークフロー: 複数のノードとエッジで構成される一連の処理全体を指します。
2. 簡単な画像生成ワークフローの例
基本的な画像生成ワークフローは、以下のノードで構成されます。
- Load Checkpoint: Stable Diffusionの基盤モデル(例:
sd_xl_base_1.0.safetensors)を読み込みます。 - CLIP Text Encode (Positive): ポジティブプロンプト(生成したい内容)を入力し、CLIPが理解できる形式に変換します。
- CLIP Text Encode (Negative): ネガティブプロンプト(生成したくない内容)を入力します。
- KSampler: 実際に画像を生成するサンプラーです。ステップ数、CFGスケール、シード値などを設定します。
- steps: 画像生成の反復回数。一般的に20〜30が推奨されます。
- cfg: プロンプトへの忠実度。7〜10が標準的な設定です。
- seed: 画像の多様性を制御する数値。
-1で毎回ランダムになります。
- VAE Decode: VAEモデルを使用して、画像を視覚化できる形式にデコードします。
- Save Image: 生成された画像を保存します。
これらのノードをドラッグ&ドロップで配置し、それぞれの出力ポートと入力ポートをエッジで繋ぐことで、ワークフローが完成します。
💡 ポイント: ワークフローは右クリックメニューから「Load Default」で基本的なテンプレートを読み込んだり、Civitaiなどのサイトからダウンロードした
.json形式のワークフローファイルをComfyUIの画面に直接ドラッグ&ドロップして読み込むことができます。
3. 画像生成の実行
ワークフローが完成し、必要な設定(プロンプト、モデルなど)が完了したら、画面右側の「Queue Prompt」ボタンをクリックします。すると、ワークフローが実行され、画像が生成されます。
2026年におけるComfyUIの活用と今後の展望
2026年において、ComfyUIは単なる画像生成ツールを超え、AIモデル開発のプロトタイピングから商用コンテンツ制作まで、幅広い分野で活用されています。
1. カスタムノードと拡張機能の進化
コミュニティによって開発されるカスタムノードは日々進化しており、ControlNet、LoRA、IP-Adapter、アップスケーリング、動画生成など、多岐にわたる機能がComfyUI内でシームレスに統合されています。これにより、高度なAIアートワークやアニメーション制作も、ノードベースで直感的に行えるようになっています。
2. クラウドGPUサービスとの連携強化
高性能なGPUを持たないユーザーでも、ComfyUIを最大限に活用できるよう、RunPodやPaperspaceなどのクラウドGPUサービスとの連携がより強化されています。これらのサービスでは、プリインストールされたComfyUI環境を簡単に起動でき、例えばNVIDIA H100 GPUを時間あたり約2.5ドルから利用可能です。これにより、自宅のPCスペックに左右されずに、大規模なモデルや複雑なワークフローを高速で実行できます。
3. 新しいAIモデルへの迅速な対応
ComfyUIは、Stable Diffusion 3 (SD3) やStable Cascadeなど、新たな基盤モデルが登場するたびに、そのモジュール性のおかげで迅速に対応してきました。これにより、常に最新のAI技術をComfyUI上で試すことが可能であり、最先端の画像生成を体験できます。
ComfyUIは、その無限の拡張性と柔軟性により、今後もAI画像生成の最前線を走り続けるでしょう。ぜひこの機会に、ComfyUIの世界に足を踏み入れてみてください。