🤖
AI・機械学習

【2026年版】ComfyUIのインストールから使い方まで初心者向け徹底解説

#ComfyUI #Stable Diffusion #画像生成AI #インストール #使い方 #初心者 #ワークフロー
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIとは?2026年の最新動向と初心者向け基礎知識

ComfyUIは、Stable Diffusionをはじめとする画像生成AIをノードベースで操作できる、高機能かつ柔軟なインターフェースです。視覚的なブロック(ノード)を配置し、それらを線(エッジ)で繋いで処理の流れ(ワークフロー)を構築することで、Stable Diffusionの内部処理を深く理解し、より複雑で高度な生成プロセスを組むことが可能です。

2026年5月時点では、ComfyUIは以下の最新動向を見せています。

  • インストールの簡素化: 公式のオールインワンパッケージやクラウドベースの提供により、インストールプロセスが大幅に簡素化されました。既存のStable Diffusion WebUIとの連携も強化され、両者の良い点を活用できるようになっています。
  • モデル管理の進化: 大量のAIモデル(Checkpoint、LoRA、ControlNetなど)のダウンロード、バージョン管理、互換性チェックがより直感的になりました。WebUIとの連携により、モデルファイルの共有もスムーズです。
  • 多様なAIモデルへの対応: 画像生成だけでなく、動画生成、3Dモデル生成など、Stable Diffusion以外の様々な生成AIモデルに対応するノードが登場し、汎用的な生成AIインターフェースとしての地位を確立しつつあります。
  • パフォーマンスの最適化: 新しいGPUアーキテクチャ(NVIDIA Blackwell世代など)への最適化が進み、より高速かつ効率的な画像生成が可能になっています。

💡 ポイント: ComfyUIは、Stable Diffusionの「裏側」を視覚的に操作できるツールです。ノードの接続を通じてAIの仕組みを理解できるため、長期的に見れば生成AIのスキルアップに大きく貢献します。

ステップバイステップ!ComfyUIのインストール方法(2026年版)

ComfyUIをローカル環境にインストールする手順を解説します。2026年5月時点では、オールインワンパッケージの利用が最も推奨される初心者向けの方法です。

1. システム要件の確認

ComfyUIはGPUの性能に大きく依存します。快適な利用には以下のスペックを推奨します。

項目 推奨スペック 備考
OS Windows 11 / Linux (Ubuntu 22.04 LTSなど) macOSでも動作しますが、GPU性能に制限があります。
GPU NVIDIA RTX 30シリーズ以降 VRAM 12GB以上を強く推奨。RTX 40シリーズやAMD RDNA 3以降も可。
VRAM 12GB以上 高解像度生成や複雑なワークフローでは16GB〜24GBが理想的。
CPU Intel Core i7 (第10世代以降) / AMD Ryzen 7 (3000シリーズ以降) 8コア以上推奨。
RAM 16GB以上 32GBが推奨。
ストレージ 100GB以上の空き容量 (SSD推奨) モデルファイルで容量を消費します。

⚠️ 注意: VRAMが8GB以下の場合、ComfyUIの起動は可能ですが、生成できる画像のサイズやモデルの種類に大きな制限がかかります。特にSDXLモデルの利用は困難です。

2. ComfyUIのダウンロードとインストール

2026年5月現在、最も手軽な方法はGitHubで提供されている「ComfyUI Standalone Windows Portable」のようなオールインワンパッケージを利用することです。

  1. ComfyUIのGitHubリポジトリにアクセスします。 (https://github.com/comfyanonymous/ComfyUI)
  2. 「Releases」セクションから「ComfyUI_windows_portable_nvidia_cu121_and_cpu.7z」(ファイル名はバージョンにより変動)をダウンロードします。ファイルサイズは通常2GB〜3GB程度です。
  3. ダウンロードした.7zファイルを、任意のドライブ(例: D:\)直下に展開します。
  4. 展開されたフォルダ内の「run_nvidia_gpu.bat」(NVIDIA GPUユーザーの場合)をダブルクリックして実行します。
  5. 初回起動時に必要な依存関係が自動的にダウンロード・セットアップされます。このプロセスには数分から20分程度かかる場合があります。
  6. セットアップ完了後、コマンドプロンプトに表示されるURL(例: http://127.0.0.1:8188)をウェブブラウザで開くとComfyUIのインターフェースが表示されます。

💡 ポイント: 「portable」版はPython環境や依存関係を内包しており、既存の環境を汚染せず手軽に利用開始できます。一般的な環境であれば、ダウンロードから起動まで30分から1時間程度で完了します。

3. モデルファイルの配置

画像生成にはStable Diffusionモデルが必要です。

  1. CivitaiやHugging Faceなどから、好みのStable Diffusionモデル(.ckptまたは.safetensors形式)をダウンロードします。SDXL 1.0 Base Modelは通常7GB前後です。

  2. ダウンロードしたモデルファイルを、ComfyUIフォルダ内の以下のパスに配置します。

    ComfyUI
    └── models
        ├── checkpoints  <-- Stable Diffusionモデルを配置
        ├── loras        <-- LoRAモデルを配置
        └── controlnet   <-- ControlNetモデルを配置
    

⚠️ 注意: モデルのダウンロード元は信頼できるサイトを選びましょう。不審なモデルはセキュリティリスクとなる可能性があります。

ComfyUIの基本的な使い方とワークフロー構築の第一歩

ComfyUIを起動したら、いよいよ画像生成のワークフローを構築してみましょう。

1. UIの概要とノードの追加

ComfyUIの画面は広大なキャンバスです。

  • ノードの追加: キャンバス上で右クリックし、「Add Node」から必要なノードを選択します。
  • ノードの接続: 各ノードの入力(左側)と出力(右側)にある小さな丸(ポート)をドラッグして、別のノードのポートに繋ぎます。同じ色のポート同士のみ接続可能です。

2. シンプルな画像生成ワークフローの構築

初心者向けの最も基本的な画像生成ワークフローは、以下のノードで構成されます。

  1. CheckpointLoaderSimple: 使用するStable Diffusionモデルを読み込みます。
  2. CLIPTextEncode (Positive): 生成したい画像のプロンプトを入力します。
  3. CLIPTextEncode (Negative): 生成したくない要素のネガティブプロンプトを入力します。
  4. KSampler: 画像生成の核となるサンプラーです。ステップ数、CFGスケール、シード値などを設定します。
  5. VAEDecode: KSamplerで生成された潜在空間の画像を、人間が見えるRGB画像に変換します。
  6. SaveImage: 生成された画像を保存します。

これらのノードを以下のように接続します。

  • CheckpointLoaderSimplemodel出力を、CLIPTextEncodemodel入力とKSamplermodel入力へ。
  • CheckpointLoaderSimplevae出力を、VAEDecodevae入力へ。
  • CLIPTextEncode (Positive)conditioning出力を、KSamplerpositive入力へ。
  • CLIPTextEncode (Negative)conditioning出力を、KSamplernegative入力へ。
  • KSamplerLATENT出力を、VAEDecodesamples入力へ。
  • VAEDecodeIMAGE出力を、SaveImageimages入力へ。

3. パラメータの設定と画像生成

  1. CheckpointLoaderSimple: 「ckpt_name」からモデルファイルを選択します。
  2. CLIPTextEncode (Positive/Negative): 各ノード内のテキストボックスにプロンプトを入力します。
  3. KSampler:
    • seed: 画像ごとに異なるランダムなシード値を設定(-1でランダム)。
    • steps: 生成ステップ数(一般的に20〜30推奨)。
    • cfg: プロンプトへの忠実度(7〜10程度が一般的)。
    • sampler_name: サンプラーの種類(dpmpp_2m_sde_gpuなど)。
    • scheduler: スケジューラーの種類(karrasなど)。
  4. 「Queue Prompt」ボタンをクリックします。

ワークフローが実行され、画像が生成されます。SaveImageノードに表示される画像を確認し、ComfyUIフォルダ内のoutputフォルダに保存されます。

4. ワークフローの保存と読み込み

ComfyUIで生成された画像には、その画像を生成した際のワークフロー情報がPNGメタデータとして埋め込まれています。

  • ワークフローの復元: 生成された画像をComfyUIのキャンバスにドラッグ&ドロップするだけで、ワークフローが自動的に復元されます。
  • ワークフローの保存: 空のキャンバス上で右クリックし、「Save (json)」を選択すると、現在のワークフローをJSONファイルとして保存できます。

💡 ポイント: 他のユーザーが公開しているワークフロー(画像ファイル)を読み込むことで、複雑な設定も簡単に再現し、そこから学習を進めることができます。これがComfyUIの最大の魅力の一つです。

ComfyUIは奥が深く、様々なノードを組み合わせることで無限の可能性を秘めています。この基本をマスターし、ぜひあなただけのクリエイティブな世界を探求してください。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)