【2026年版】ComfyUIのインストールから使い方まで徹底解説!初心者ガイド
ComfyUIとは?2026年における画像生成AIの最前線
2026年5月現在、画像生成AIの分野は目覚ましい進化を遂げており、その中でもComfyUIは、Stable Diffusionをはじめとする拡散モデルを最大限に活用するための強力なツールとして、特にプロフェッショナルや高度なカスタマイズを求めるユーザーから絶大な支持を得ています。従来のWebUIと比較して、ComfyUIはノードベースの直感的なインターフェースを提供し、画像生成プロセスを視覚的に、かつ柔軟に制御できる点が最大の特徴です。これにより、単一のプロンプトから複雑な条件分岐や複数モデルの組み合わせ、さらにはアニメーション生成まで、思い通りのワークフローを構築することが可能です。特に、Stable Diffusion 3.0やSDXL-Turbo 1.1といった最新の高性能モデルの登場により、ComfyUIはその潜在能力を遺憾なく発揮し、生成速度の向上と品質の飛躍的な向上に貢献しています。
ComfyUIのインストール手順(Windows向け・2026年版)
ComfyUIの導入は、以前にも増して簡単になっています。ここではWindows環境を前提に、初心者でも確実にセットアップできる手順をステップバイステップで解説します。
ステップ1:Pythonの準備
ComfyUIはPython上で動作するため、まずはPythonのインストールが必要です。
- Python公式サイトから、2026年5月時点で安定版であるPython 3.10.x(例: 3.10.12)のインストーラーをダウンロードします。
- インストーラーを実行する際、「Add Python to PATH」のチェックボックスを必ずオンにしてから「Install Now」をクリックしてください。これにより、コマンドプロンプトからPythonが利用できるようになります。
ステップ2:ComfyUIのダウンロード
ComfyUI本体はGitHubからダウンロードします。
- GitHubのComfyUIリポジトリにアクセスします。
- 「Code」ボタンをクリックし、「Download ZIP」を選択してComfyUIの最新版をダウンロードします。
- ダウンロードしたZIPファイルを任意の場所(例:
C:\AI\ComfyUI)に展開します。このパスは後で参照するため、覚えておいてください。
ステップ3:モデルファイルの配置
画像生成を行うには、Stable Diffusionなどのモデルファイルが必要です。
- Hugging FaceやCivitaiなどのサイトから、お好みのモデル(例: Stable Diffusion 3.0、SDXL Base)をダウンロードします。これらのモデルファイルは通常、数GB〜数十GBのサイズがあります(例: SDXL Baseは約7GB)。
- ダウンロードしたモデルファイル(
.ckpt,.safetensors形式)を、ComfyUIを展開したフォルダ内のComfyUI\models\checkpointsディレクトリに配置します。
ステップ4:ComfyUIの起動と依存関係のインストール
- ComfyUIを展開したフォルダ(例:
C:\AI\ComfyUI)を開きます。 run_nvidia_gpu.bat(NVIDIA GPUの場合)またはrun_cpu.bat(GPUがない場合)をダブルクリックして実行します。- 初回起動時には、必要なPythonライブラリが自動的にインストールされます。このプロセスはインターネット接続速度やPCの性能にもよりますが、数分程度かかる場合があります。
- インストールが完了すると、自動的にWebブラウザが起動し、ComfyUIのユーザーインターフェースが表示されます。もし起動しない場合は、コマンドプロンプトに表示されたURL(通常
http://127.0.0.1:8188)をブラウザに入力してください。
ComfyUIの基本的な使い方とワークフローの構築
ComfyUIのインターフェースは、ノードと呼ばれるブロックを接続していくことで画像生成のワークフローを構築します。
1. モデルのロードとプロンプト入力
- Load Checkpointノード: 左側の空いているスペースを右クリックし、「Add Node」→「loaders」→「Load Checkpoint」を選択します。ノード内の「ckpt_name」ドロップダウンから、ステップ3で配置したモデルファイルを選択します。
- CLIP Text Encode (Positive) / (Negative) ノード: 同様に「Add Node」→「conditioning」→「CLIP Text Encode (Positive)」と「CLIP Text Encode (Negative)」を追加します。これらのノードに、それぞれ生成したい画像の肯定的なプロンプト(例:
masterpiece, a girl walking in a futuristic city)と否定的なプロンプト(例:low quality, blurry, bad anatomy)を入力します。
2. サンプラーとスケジューラーの設定
- KSamplerノード: 「Add Node」→「sampling」→「KSampler」を追加します。このノードは、画像生成の核心部分です。
seed: 画像の多様性を制御する数値。-1に設定すると毎回ランダムになります。steps: 生成ステップ数。一般的に20〜30ステップが推奨されます。cfg: プロンプトへの忠実度。7〜9が標準的です。sampler_name: サンプリングアルゴリズム(例:dpmpp_2m_sde)。scheduler: スケジューラー(例:karras)。
3. VAEと画像の出力
- VAE Decodeノード: 「Add Node」→「latent」→「VAE Decode」を追加します。これは潜在空間の画像をピクセルデータに変換する役割を担います。
- Save Imageノード: 「Add Node」→「image」→「Save Image」を追加します。生成された画像を保存するためのノードです。
4. ノードの接続
各ノードの出力ポート(右側)と入力ポート(左側)をドラッグ&ドロップで接続していきます。
Load CheckpointのMODELをKSamplerのmodelへ。Load CheckpointのCLIPをCLIP Text Encode (Positive)と(Negative)のclipへ。CLIP Text Encode (Positive)のCONDITIONINGをKSamplerのpositiveへ。CLIP Text Encode (Negative)のCONDITIONINGをKSamplerのnegativeへ。KSamplerのLATENTをVAE Decodeのlatentへ。Load CheckpointのVAEをVAE Decodeのvaeへ。VAE DecodeのIMAGEをSave Imageのimagesへ。
5. 画像生成の実行
すべてのノードが正しく接続されたら、画面右側の「Queue Prompt」ボタンをクリックします。ComfyUIがワークフローを実行し、画像生成が開始されます。生成された画像は、ComfyUI\outputフォルダに保存されます。
初心者向けヒントと次のステップ
- ワークフローのロード: ComfyUIの強みの一つは、他のユーザーが作成したワークフローを簡単に利用できる点です。Civitaiなどのサイトで生成された画像の多くには、その画像を生成したワークフローファイル(JSON形式)が添付されています。ComfyUIのUIに画像をドラッグ&ドロップするか、「Load」ボタンからJSONファイルを読み込むことで、そのワークフローを再現できます。
- 拡張機能の導入: ComfyUI Manager(ComfyUI-Manager)を導入することで、モデルのダウンロード、カスタムノードのインストール、ワークフローの管理などが格段に楽になります。GitHubからクローンし、
ComfyUI\custom_nodesフォルダに配置することで利用可能です。 - GPUの推奨スペック: 2026年5月時点では、Stable Diffusion 3.0やSDXLのような高解像度モデルを快適に動かすには、NVIDIA GeForce RTX 4070 Ti SUPER以上のGPUと、最低でも12GB以上のVRAMを搭載したPCが強く推奨されます。特に高速な生成を求める場合は、RTX 4090のようなハイエンドモデルが最適です。
- コミュニティの活用: ComfyUIは活発なコミュニティを持っています。DiscordサーバーやGitHubのDiscussion、各種フォーラムで情報を収集し、疑問を解消しましょう。
ComfyUIは学習曲線があるものの、一度その強力なワークフロー構築の概念を理解すれば、あなたの画像生成AIにおける可能性を無限に広げてくれるでしょう。ぜひこのツールを使いこなし、創造性を解き放ってください。