🎨
AI・機械学習

【2026年版】ComfyUIのインストールと使い方を初心者向けに徹底解説

#ComfyUI #インストール #使い方 #初心者 #画像生成AI
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIは、2026年6月時点において、画像生成AIの分野で最も柔軟かつパワフルなインターフェースの一つとして確立されています。従来のWebUIが提供する固定的なインターフェースとは異なり、ComfyUIはノードベースのワークフローを採用しており、ユーザーが自身のアイデアを直接的な視覚的プログラミングで表現できる点が最大の特徴です。このモジュラーなアプローチにより、複雑な画像生成プロセスや実験的なワークフローを直感的に構築し、細部まで制御することが可能です。

2026年には、ComfyUIはそのパフォーマンスとユーザー体験において大幅な進化を遂げています。特に注目すべきは、GPUリソースの最適化が進み、より少ないVRAMで高速な画像生成が可能になった点、そしてAIアシストによるワークフロー構築機能が一部で試験的に導入され始めている点です。これにより、初心者でも複雑なワークフローをより簡単に開始できるようになっています。

特徴 ComfyUI (2026年) 従来のWebUI
柔軟性 ノードベースで無限のワークフロー構築が可能 タブと固定されたUI要素で機能が限定される
パフォーマンス GPUリソースの効率的な利用、高速な処理 UIオーバーヘッドにより若干の遅延が発生する場合あり
拡張性 カスタムノードで機能追加が容易 スクリプトや拡張機能の追加にUI側の制約あり
学習曲線 初めはやや高いが、慣れると非常にパワフル 直感的だが、高度なカスタマイズには限界がある

【2026年版】ComfyUIのインストール手順

2026年6月現在、ComfyUIのインストールは以前よりもはるかに簡略化されています。特にWindowsおよびmacOSユーザー向けには、Python環境の構築を含めたワンクリックインストーラーが提供されており、初心者でも手軽に導入可能です。

💡 ポイント: 安定した動作のため、最低8GBのVRAMを搭載したNVIDIA GPU(AMD GPUもサポートされていますが、NVIDIAが推奨されます)を推奨します。高性能なSDXLモデルや複数のControlNetを使用する場合は、12GB以上のVRAMを推奨します。

1. 推奨環境の確認

  • OS: Windows 10/11、macOS、Linux
  • GPU: NVIDIA GeForce RTX 30シリーズ以降、または同等性能のAMD Radeon GPU
  • VRAM: 最低8GB、推奨12GB以上
  • Python: Python 3.11または3.12(2026年6月時点の最新安定版)

2. ComfyUIのダウンロードとインストール

A. 簡易インストーラー (Windows/macOS推奨)

この方法が最も簡単で、Python環境のセットアップも自動で行われます。

  1. ComfyUIの公式GitHubリポジトリ(または配布サイト)にアクセスします。
  2. ComfyUI_windows_portable.zip」または「ComfyUI_mac_portable.zip」といった、OSに対応したポータブル版インストーラーをダウンロードします。
  3. ダウンロードしたZIPファイルを任意の場所に展開します(例: C:\ComfyUI)。
  4. 展開されたフォルダ内にある「run_nvidia_gpu.bat」(NVIDIA GPUの場合)または「run_cpu.bat」(GPUがない場合)をダブルクリックして実行します。macOSの場合は「run_macos.sh」を実行します。
  5. 初回起動時に必要な依存関係が自動的にインストールされます。このプロセスはインターネット接続速度にもよりますが、約10分から20分程度かかる場合があります。

B. 手動インストール (Linuxまたは上級者向け)

Python環境が既にある場合や、より細かく制御したい場合に選択します。

  1. Python 3.11または3.12がインストールされていることを確認します。
  2. コマンドプロンプトまたはターミナルを開き、ComfyUIをクローンします。
    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  3. 必要な依存関係をインストールします。
    pip install -r requirements.txt
    
  4. ComfyUIを起動します。
    python main.py
    

⚠️ 注意: 手動インストールの場合、Pythonの仮想環境(venvなど)の使用を強く推奨します。これにより、システムのPython環境との競合を避けることができます。

3. モデルファイルの配置

画像生成には、Stable Diffusionなどのモデルファイルが必要です。

  1. ダウンロードしたモデルファイル(例: model.safetensors)を、ComfyUIのインストールフォルダ内の**ComfyUI/models/checkpoints/**に配置します。
    • SDXL Baseモデルは約7GBの容量があります。
  2. LoRAやControlNetモデルも同様に、それぞれの適切なフォルダ(ComfyUI/models/loras/ComfyUI/models/controlnet/など)に配置します。

ComfyUIの基本的な使い方:初めての画像生成ワークフロー

ComfyUIを起動すると、ブラウザでノードベースのインターフェースが表示されます。最初は複雑に見えるかもしれませんが、基本的なワークフローは非常にシンプルです。

1. UIの基本構成

  • グラフエリア: ノードを配置し、リンクで接続するメインの作業領域。
  • ノード: 特定の機能(モデルの読み込み、プロンプトのエンコード、サンプリングなど)を持つブロック。
  • リンク: ノード間でデータを渡すための線。
  • キュー (Queue Prompt): ワークフローを実行するためのボタン。

2. 初めての画像生成ワークフロー構築

最も基本的なテキストto画像生成のワークフローを構築してみましょう。

  1. ノードの追加: グラフエリアの空いている場所で右クリックし、「Add Node」を選択します。
  2. チェックポイントの読み込み:
    • Loaders -> Load Checkpoint を追加します。
    • ノード内の「ckpt_name」から、先ほど配置したモデルファイルを選択します。
  3. プロンプトのエンコード:
    • CLIP -> CLIP Text Encode (Prompt) を2つ追加します。一つはポジティブプロンプト用、もう一つはネガティブプロンプト用です。
    • ポジティブプロンプトのノードには「beautiful scenery, sunset, mountain」など、生成したい画像を説明するテキストを入力します。
    • ネガティブプロンプトのノードには「ugly, deformed, low quality」など、生成したくない要素を入力します。
    • Load Checkpoint ノードの「CLIP」出力を、両方の CLIP Text Encode ノードの「clip」入力に接続します。
  4. サンプラーの追加:
    • Sampling -> KSampler を追加します。
    • Load Checkpoint ノードの「VAE」出力を KSampler の「vae」入力に接続します。
    • Load Checkpoint ノードの「MODEL」出力を KSampler の「model」入力に接続します。
    • ポジティブプロンプトの CLIP Text Encode ノードの「CONDITIONING」出力を KSampler の「positive」入力に接続します。
    • ネガティブプロンプトの CLIP Text Encode ノードの「CONDITIONING」出力を KSampler の「negative」入力に接続します。
    • KSampler ノードで、ステップ数(steps)、CFGスケール、サンプラー、スケジューラーなどを調整します。最初はデフォルト値で問題ありません。
  5. 画像を保存:
    • Image -> Save Image を追加します。
    • KSampler ノードの「LATENT」出力を VAE Decode ノード(Latent -> VAE Decode)の「samples」入力に接続します。
    • Load Checkpoint ノードの「VAE」出力を VAE Decode ノードの「vae」入力に接続します。
    • VAE Decode ノードの「IMAGE」出力を Save Image ノードの「images」入力に接続します。
  6. 実行: 画面右上の「Queue Prompt」ボタンをクリックします。ノードが緑色に光りながら処理が進み、最終的に Save Image ノードに生成された画像が表示されます。

💡 ポイント: ワークフローは保存・読み込みが可能です。気に入ったワークフローはJSONファイルとして保存し、後で再利用できます。

3. カスタムノードの導入

ComfyUIの最大の魅力は、豊富なカスタムノードによる拡張性です。GitHubなどで公開されているカスタムノードを導入することで、ControlNet、アップスケーラー、アニメーション生成など、多岐にわたる機能を追加できます。

  1. ComfyUIのインストールフォルダ直下にあるcustom_nodesフォルダに、ダウンロードしたカスタムノードのリポジトリをクローンまたは展開します。
  2. ComfyUIを再起動します。
  3. カスタムノードによっては、追加のPythonライブラリが必要な場合があります。その際は、カスタムノードのREADMEに従ってpip installを実行してください。
    cd ComfyUI/custom_nodes/your_custom_node_name
    pip install -r requirements.txt
    

2026年のComfyUIをさらに活用するためのヒント

  • コミュニティの活用: ComfyUIのDiscordサーバーやGitHub Discussionsは非常に活発です。最新のワークフロー、カスタムノード、トラブルシューティングの情報が日々共有されています。
  • ワークフローの共有サイト: 2026年には、ComfyUIのワークフローを共有・検索できる専門サイトが充実しています。他のユーザーが作成した複雑なワークフローをダウンロードし、自身の学習や応用に取り入れることができます。
  • パフォーマンス最適化:
    • 生成する画像の解像度を適切に設定し、VRAMの消費を抑えましょう。
    • KSamplertiled_vaeなど、一部のノードはVRAM効率を向上させるオプションを持っています。
    • --highvram--lowvramといった起動オプションを試すことで、VRAM使用量を調整できます。
  • AIアシスト機能の活用: 2026年6月時点では試験的ですが、特定のプロンプトからワークフローを自動生成するAIアシスト機能や、ノードの提案機能が開発されています。これらの機能を積極的に試すことで、より効率的なワークフロー構築が可能になります。

ComfyUIは、その無限の可能性であなたのクリエイティブなアイデアを具現化する強力なツールです。このガイドを参考に、ぜひその世界に足を踏み入れてみてください。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)