🤖
AI・機械学習

ComfyUI インストールから使い方まで徹底解説!初心者向けガイド2026年版

#ComfyUI #インストール #使い方 #初心者 #画像生成AI
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIとは? 2026年におけるその魅力

2026年5月現在、画像生成AIの分野は目覚ましい進化を遂げており、その中でもComfyUIは、Stable Diffusionを最大限に活用するための強力なグラフィカルユーザーインターフェース(GUI)として、プロのクリエイターから初心者まで幅広く支持されています。従来のWeb UIと比較して、ComfyUIはノードベースのワークフローを採用している点が最大の特徴です。これにより、画像生成のプロセスを視覚的に、かつ細かく制御できるようになります。

ComfyUIが選ばれる理由

ComfyUIの最大の利点は、その透明性と柔軟性にあります。各ノードが画像生成の特定のステップ(モデルのロード、プロンプト処理、サンプリング、画像保存など)を担当するため、ユーザーはプロセス全体を理解しやすくなります。また、ノードを自由に組み合わせることで、非常に複雑かつ独自のワークフローを構築でき、同じモデルを使っていてもComfyUIだからこそ可能な表現が生まれることも少なくありません。

特に2026年においては、SDXL TurboStable Cascadeといった高速生成モデルの登場と普及に伴い、ComfyUIはそのパフォーマンスを最大限に引き出すツールとしてさらに重要性を増しています。リアルタイムに近い速度での画像生成や、より複雑な条件付け(例:複数のControlNetの同時使用、画像間のシームレスなトランジション)を実現する上で、ComfyUIのノードベースの設計は非常に有利です。

ComfyUIのインストール方法(2026年5月版)

ComfyUIをローカル環境にインストールする手順は、初心者でも順を追って進めれば決して難しくありません。ここではWindows環境を例に、最も一般的なインストール方法を紹介します。

⚠️ 注意: お使いのPCに十分なGPUメモリがあることを確認してください。最低でも8GB、SDXLなどの大規模モデルを快適に動かすには12GB以上のVRAMを持つNVIDIA GeForce RTX 30シリーズまたはAMD Radeon RX 6000シリーズ以降のGPUが強く推奨されます。

1. 必要なソフトウェアの準備

ComfyUIの動作には、主に以下のソフトウェアが必要です。

  • Python: バージョン3.10.xまたは3.11.xを推奨します。公式サイトからダウンロードし、インストール時に「Add Python to PATH」にチェックを入れるのを忘れないでください。
  • Git: ComfyUIのリポジトリをクローンするために使用します。公式サイトからダウンロードし、デフォルト設定でインストールしてください。

2. ComfyUI本体のダウンロードとセットアップ

  1. ComfyUIのリポジトリをクローン: 任意の場所(例: C:\AI)にフォルダを作成し、その中でコマンドプロンプトまたはPowerShellを開きます。以下のコマンドを実行してください。

    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    

    これにより、ComfyUIの本体ファイルがダウンロードされ、作業ディレクトリがComfyUIフォルダに移動します。このフォルダは初期状態で約2GBのディスク容量を消費します。

  2. 依存関係のインストール: ComfyUIフォルダ内で、以下のコマンドを実行して必要なライブラリをインストールします。

    pip install -r requirements.txt
    

    💡 ポイント: GPUドライバが最新であることを確認してください。特にNVIDIAユーザーはCUDA Toolkitのバージョンと互換性のあるドライバが必要です。問題が発生した場合は、pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 のようにCUDAバージョンを指定してPyTorchを再インストールする必要がある場合もあります。

3. モデルファイルの配置

画像生成を行うには、Stable Diffusionモデルファイル(CheckpointファイルやLoRAなど)が必要です。

  1. モデルのダウンロード: CivitaiHugging Faceなどのサイトから、お好みのStable Diffusionモデル(例: SDXL 1.0 Baseモデルは約7GB)をダウンロードします。

  2. モデルの配置パス: ダウンロードしたモデルファイルは、ComfyUIフォルダ内の以下のパスに配置してください。

    • Checkpointモデル (.safetensors, .ckpt): ComfyUI/models/checkpoints/
    • LoRAモデル (.safetensors): ComfyUI/models/loras/
    • VAEモデル (.safetensors): ComfyUI/models/vae/
    • ControlNetモデル: ComfyUI/models/controlnet/

4. ComfyUIの起動

インストールとモデルの配置が完了したら、ComfyUIを起動します。

ComfyUIフォルダ内で、以下のコマンドを実行してください。

python main.py --cuda-malloc

--cuda-malloc オプションは、GPUメモリ管理を最適化し、より安定した動作を可能にするために2026年現在推奨されています。 成功すると、コマンドプロンプトにURL(例: http://127.0.0.1:8188)が表示されます。このURLをウェブブラウザで開けば、ComfyUIのインターフェースが表示されます。

ComfyUIの基本的な使い方とワークフロー構築

ComfyUIのインターフェースは、大きく分けて「キャンバス」「ノード」「プロパティパネル」の3つの要素で構成されています。

1. 基本的なワークフローのロード

初めてComfyUIを起動すると、基本的な画像生成ワークフローが自動的にロードされています。このワークフローは、以下のような主要なノードで構成されています。

  • Load Checkpoint: 使用するStable Diffusionモデルを読み込みます。
  • CLIP Text Encode (Prompt): ポジティブプロンプトとネガティブプロンプトをエンコードします。
  • KSampler: 画像生成の核となるサンプリング処理を行います。ステップ数、CFGスケール、シード値などを設定します。
  • VAE Encode/Decode: 画像のエンコード・デコードを行います。多くのモデルでは別途VAEをロードする必要がある場合があります。
  • Save Image: 生成された画像を保存します。

2. ノードの操作

  • ノードの追加: キャンバスの空いている場所で右クリックし、「Add Node」から目的のノードを選択します。または、検索窓にノード名を入力して絞り込むこともできます。
  • ノードの接続: ノードの出力ポート(右側)から入力ポート(左側)へドラッグ&ドロップで線を引いて接続します。データタイプ(例: MODEL, CLIP, LATENT)が一致するポート同士のみ接続できます。
  • ノードの移動/削除: ノードをドラッグして移動させ、Deleteキーで削除できます。
  • パラメータの変更: 各ノードには、そのノードの動作を制御するパラメータが用意されています。ノードをクリックして選択すると、右側のプロパティパネルにパラメータが表示され、ここで値を変更できます。

3. 初めての画像生成

  1. Load Checkpointノードで、ダウンロードしたモデルを選択します。
  2. **CLIP Text Encode (Prompt)**ノードの「text」フィールドに、生成したい画像のポジティブプロンプトを入力します。ネガティブプロンプトも同様に入力します。
  3. KSamplerノードで、steps(ステップ数)、cfg(CFGスケール)、seed(シード値)などを調整します。最初はデフォルト値のままでも構いません。
  4. 画面左上の「Queue Prompt」ボタンをクリックします。
  5. ノードが緑色にハイライトされ、処理が進行します。処理が完了すると、Save Imageノードに生成された画像が表示されます。

💡 ポイント: ワークフローは、ComfyUI ExamplesCivitai などで共有されています。これらのJSONファイルをComfyUIのキャンバスにドラッグ&ドロップするだけで、複雑なワークフローを簡単にロードできます。これを参考に、様々なノードの組み合わせを学んでいきましょう。

ComfyUIをさらに使いこなすための2026年注目ポイント

ComfyUIは、その拡張性の高さから日々進化を続けています。2026年5月現在、初心者が次にステップアップするために注目すべきポイントをいくつか紹介します。

1. カスタムノードの導入

ComfyUIの真価は、コミュニティによって開発されたカスタムノードにあります。ControlNet、IP-Adapter、アップスケーラー、画像編集ツールなど、多種多様な機能がカスタムノードとして提供されています。

  • ComfyUI Manager: カスタムノードのインストールと管理を簡単に行えるツールです。ComfyUIフォルダで以下のコマンドを実行してインストール後、ComfyUIを再起動すると「Manager」ボタンが追加されます。

    git clone https://github.com/ltdrdata/ComfyUI-Manager.git custom_nodes/ComfyUI-Manager
    

    Managerを使えば、人気のあるカスタムノードをリストから選んでワンクリックでインストールできます。

2. ControlNetとIP-Adapterの活用

ControlNetIP-Adapterは、画像生成の制御性を飛躍的に高める強力な技術です。

機能名 概要 主な用途
ControlNet 入力画像からポーズ、形状、深度などの情報を抽出し、画像生成を制御する。 特定のポーズや構図の再現、既存画像のスタイル変換
IP-Adapter 入力画像からスタイルやキャラクターの雰囲気を抽出し、プロンプトを補完する。 特定のキャラクターを登場させる、画像間のスタイル統一

これらの技術をComfyUIのワークフローに組み込むことで、より意図通りの画像を生成できるようになります。モデルファイルはComfyUI/models/controlnet/ComfyUI/models/ipadapter/に配置します。

3. ワークフロー共有サイトの活用

ComfyUIのノードベースのワークフローは、JSON形式で簡単に共有できます。前述のCivitaiやComfyUI Examples以外にも、多くのクリエイターが自身のワークフローを公開しています。これらを参考にすることで、複雑な設定や高度な技術を効率的に学ぶことができます。他のユーザーのワークフローをダウンロードし、自分の環境で試すことで、新たな発見があるでしょう。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)