🎨
AI・機械学習

【2026年最新版】ComfyUIのインストールから使い方まで初心者向け徹底解説

#ComfyUI #Stable Diffusion #画像生成AI #インストール #使い方 #初心者 #ワークフロー
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIは、画像生成AIのStable Diffusionをノードベースのグラフィカルインターフェースで操作できるツールです。従来のWeb UIと比較して、より高度なカスタマイズ性と効率的なワークフロー構築が可能であり、特に2026年5月時点では、その直感性と拡張性から初心者から上級者まで幅広いユーザーに選ばれています。2026年のアップデートにより、ワンクリックインストーラの普及と、主要なクラウドサービスとの連携がさらに強化され、初期導入のハードルが大幅に下がりました。

ComfyUIのインストール手順(2026年版)

ComfyUIを始めるには、まずお使いのPC環境を整え、本体をインストールします。ここでは、最も一般的なWindows環境での手順を中心に解説します。

1. システム要件の確認

ComfyUIはGPUの性能に大きく依存します。快適な動作のためには、以下の要件を満たすPCを用意しましょう。

要件 最低限 推奨
OS Windows 10/11 (64-bit) Windows 10/11 (64-bit)
GPU NVIDIA GeForce RTX 3050 (VRAM 8GB) NVIDIA GeForce RTX 4070 (VRAM 12GB以上)
RAM 16GB 32GB以上
ストレージ 50GB以上の空き (SSD推奨) 100GB以上の空き (NVMe SSD推奨)
Python 3.11.x (多くの場合自動インストール) 3.11.x

⚠️ 注意: AMD GPUやIntel Arc GPUでも動作しますが、NVIDIA GPUの方が安定性とパフォーマンスに優れています。特にVRAMが8GB未満のGPUでは、高解像度画像の生成や複雑なワークフローの実行が困難になる場合があります。

2. ComfyUIのダウンロードと展開

2026年5月時点では、Windowsユーザー向けにPython環境を含んだワンクリックインストーラが主流です。

  1. ComfyUIの公式GitHubリポジトリ(または信頼できるミラーサイト)にアクセスします。
  2. 「Direct link to download ComfyUI with portable Python and dependencies」セクションから、最新のComfyUI_windows_portable_XXXX_XX_XX.7z形式のファイルをダウンロードします。ファイルサイズは約1.5GBです。
  3. ダウンロードした.7zファイルを、任意の場所に展開します(例: C:\ComfyUI)。展開には7-Zipなどのアーカイブツールが必要です。

💡 ポイント: 展開先のパスに日本語や特殊文字が含まれないようにしてください。動作が不安定になる原因となります。

3. 必要なモデルの準備

画像生成には、Stable Diffusionモデルが必要です。

  1. Stable Diffusion XL 1.0 (SDXL 1.0) のモデルをダウンロードします。Hugging FaceやCivitaiなどのサイトから入手できます。
    • 例: sd_xl_base_1.0.safetensors および sd_xl_refiner_1.0.safetensors
  2. ダウンロードしたモデルファイル(.safetensors形式)を、ComfyUIのインストールディレクトリ内にある以下のパスに配置します。
    ComfyUI
    └── models
        └── checkpoints
            └── sd_xl_base_1.0.safetensors
            └── sd_xl_refiner_1.0.safetensors
    
  3. VAE(Variational AutoEncoder)モデルもダウンロードし、同様に配置します。
    • 例: sdxl_vae.safetensors
    ComfyUI
    └── models
        └── vae
            └── sdxl_vae.safetensors
    

4. ComfyUIの起動

  1. ComfyUIをインストールしたフォルダを開きます。
  2. NVIDIA GPUを使用している場合は、run_nvidia_gpu.batをダブルクリックして実行します。
    • AMD GPUの場合はrun_amd_gpu.bat、CPUのみの場合はrun_cpu.batを実行します。
  3. 初回起動時には、必要なPythonライブラリのインストールが行われるため、数分から十数分かかる場合があります。
  4. インストールが完了すると、自動的にWebブラウザが起動し、ComfyUIのインターフェースが表示されます。URLは通常http://127.0.0.1:8188です。

⚠️ 注意: コマンドプロンプトウィンドウは閉じないでください。閉じるとComfyUIのサーバーも停止します。

ComfyUIの基本的な使い方と画像生成

ComfyUIのインターフェースはノードと呼ばれるブロックを繋ぎ合わせてワークフローを構築します。

1. ワークフローの理解とロード

起動直後は、シンプルなテキストから画像生成のワークフローが表示されているはずです。 もし表示されていない場合は、画面左上の「Load Default」ボタンをクリックするか、以下の手順でプリセットワークフローをロードします。

  1. 画面左上の「Load」ボタンをクリックします。
  2. ComfyUIインストールフォルダ内のComfyUI\workflowsディレクトリにあるtext_to_image_sdxl.jsonなどのプリセットワークフローを選択して開きます。

このワークフローは、以下のような主要なノードで構成されています。

  • CheckpointLoaderSimple: 使用するStable Diffusionモデルを選択します。
  • CLIPTextEncode: プロンプト(生成したい画像の説明文)とネガティブプロンプト(生成したくない要素)を入力します。
  • KSampler: 画像生成の核となるノードで、ステップ数、CFGスケール、シード値、サンプラー、スケジューラなどを設定します。
  • VAE Decode: VAEモデルを使用して画像をデコードします。
  • Save Image: 生成された画像を保存します。

2. パラメータの設定

画像を生成する前に、各ノードのパラメータを設定します。

  1. CheckpointLoaderSimpleノード: 「ckpt_name」ドロップダウンから、先ほど配置したsd_xl_base_1.0.safetensorsを選択します。SDXLを使用する場合は、Refinerモデルもロードするワークフローを使用すると良いでしょう。
  2. CLIPTextEncodeノード (Positive Prompt): 「text」欄に生成したい内容を具体的に入力します。
    • 例: masterpiece, best quality, a futuristic city at sunset, flying cars, neon lights, highly detailed
  3. CLIPTextEncodeノード (Negative Prompt): 「text」欄に生成したくない内容を入力します。
    • 例: bad anatomy, low quality, deformed, blurry, ugly, watermark
  4. KSamplerノード:
    • steps: 生成ステップ数。一般的に20〜30が推奨されます。数値を増やすと詳細になりますが、生成時間が長くなります。
    • cfg: CFGスケール(Classifier Free Guidance)。プロンプトへの忠実度。7〜8が一般的です。
    • seed: シード値。画像の初期ノイズを決定します。同じシード値と設定で常に同じ画像が生成されます。「Randomize」で毎回異なる画像を生成できます。
    • sampler_name: サンプラー。画像生成アルゴリズム。「dpmpp_2m_sde」や「euler_a」などが人気です。
    • scheduler: スケジューラ。サンプラーと組み合わせて使用。「karras」や「exponential」などが一般的です。

3. 画像生成の実行

  1. 画面右上の「Queue Prompt」ボタンをクリックします。
  2. ワークフローが実行され、各ノードが緑色にハイライトされながら処理が進みます。
  3. Save Imageノードに画像が表示されたら生成完了です。
    • 例として、NVIDIA GeForce RTX 4080(VRAM 16GB)の場合、512x512ピクセルの画像を約3秒で生成できます。

4. 生成画像の保存

Save Imageノードに表示された画像を右クリックし、「Save Image」を選択することで、PCに保存できます。画像はComfyUIのインストールフォルダ内のoutputディレクトリにも自動的に保存されます。

さらなる活用へ:モデルとカスタムノードの追加

ComfyUIの真価は、その拡張性にあります。

1. 追加モデルの導入

  • LoRA (Low-Rank Adaptation): 特定のスタイルやキャラクターを学習させた軽量モデル。models/lorasフォルダに配置します。
  • ControlNet: ポーズ、深度、エッジなどの入力画像を参考に画像を生成するモデル。models/controlnetフォルダに配置します。
  • Upscale Models: 画像を高解像度化するモデル。models/upscale_modelsフォルダに配置します。

これらのモデルは、対応するノードをワークフローに追加することで利用できます。

2. カスタムノードの導入

ComfyUIには、ユーザーが作成した多種多様なカスタムノードが存在します。これらを導入することで、機能やワークフローの選択肢が飛躍的に広がります。

💡 ポイント: Comfy Managerは、カスタムノードの検索・インストール・アップデートを簡単に行える便利なツールです。

  1. ComfyUIのGitHubページから「ComfyUI Manager」を探し、指示に従ってインストールします。
  2. ComfyUI起動後、画面左下の「Manager」ボタンからカスタムノードを管理できます。

3. コミュニティでの情報収集

ComfyUIは活発なコミュニティによって支えられています。DiscordサーバーやReddit、Civitaiなどのサイトでは、共有されたワークフローやヒント、最新情報などを入手できます。他のユーザーのワークフローをロードして学ぶことも、ComfyUI習得の近道です。

ComfyUIは、一度基本を習得すれば、あなたの創造性を無限に広げる強力なツールとなるでしょう。このガイドが、あなたのComfyUI体験の素晴らしい第一歩となることを願っています。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)