🎨
AI・機械学習

【2026年版】ComfyUIのインストールから使い方まで!初心者向け徹底解説

#ComfyUI #インストール #使い方 #Stable Diffusion #初心者
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

2026年5月現在、ComfyUIはStable Diffusionを用いた画像生成において、その卓越した柔軟性と効率性から、初心者から上級者まで幅広いユーザーに選ばれるツールとなっています。ノードベースの直感的なインターフェースにより、複雑なワークフローも視覚的に構築できるのが最大の魅力です。本記事では、2026年におけるComfyUIのインストールから基本的な使い方までを、初心者向けにステップバイステップで解説します。

ComfyUIとは? 2026年の最新動向

ComfyUIは、Stable Diffusionなどの画像生成AIモデルを操作するためのノードベースUIです。従来のWebUIとは異なり、画像生成の各工程(モデルの読み込み、プロンプトのエンコード、サンプリング、VAEデコードなど)を独立した「ノード」として扱い、それらを線で繋いで独自の「ワークフロー」を構築します。この方式により、ユーザーは生成プロセスを細かく制御し、非常に複雑でクリエイティブな表現を可能にします。

2026年現在、ComfyUIは以下のような点で進化を遂げています。

  • SD3などの最新モデルへの迅速な対応: Stable Diffusion 3 (SD3) や将来のAIモデルが登場するたびに、ComfyUIは他のUIよりも迅速にそれらをサポートし、最新の技術をいち早く利用できる環境を提供しています。
  • 効率性とパフォーマンスの向上: バックエンドの最適化が進み、特にNVIDIA TensorRTやFlashAttentionなどの技術を標準で活用することで、同スペックのGPU環境でも他のUIと比較して最大20〜30%高速な画像生成を実現しています。
  • コミュニティによる拡張機能の充実: 2026年5月現在、GitHubの公式リポジトリは8万以上のスターを獲得し、活発なコミュニティによって数多くのカスタムノードやワークフローが開発・共有されています。これにより、ControlNet、LoRA、アップスケーリングなど、あらゆる機能がワークフローに組み込み可能となっています。

ComfyUIのインストール方法(2026年版)

ComfyUIをローカル環境にインストールするための手順を解説します。

1. 必要動作環境の確認

ComfyUIはGPU性能に大きく依存します。快適な動作のためには以下のスペックを推奨します。

コンポーネント 推奨スペック 最低スペック
GPU NVIDIA GeForce RTX 3060 (12GB VRAM) 以上 NVIDIA GeForce RTX 2060 (8GB VRAM) 以上
CPU Intel Core i5 第10世代以降 / AMD Ryzen 5 3000シリーズ以降 Intel Core i5 第7世代 / AMD Ryzen 3 1000シリーズ
RAM 16GB以上 8GB以上
OS Windows 10/11、Linux、macOS (Apple Silicon) Windows 10、Linux、macOS

💡 ポイント: VRAMは画像サイズや生成ステップ数に直結します。特に1024x1024ピクセル以上の画像を生成する場合は、12GB以上のVRAMがあると安定します。

2. Python環境の準備

ComfyUIはPythonで動作します。2026年5月現在、Python 3.10.x または 3.11.x のバージョンが推奨されています。

  1. Pythonの公式サイトからインストーラーをダウンロードし、インストールを実行します。

  2. インストール時に「Add Python.exe to PATH」のチェックボックスを必ずオンにしてください。

  3. コマンドプロンプトまたはターミナルを開き、以下のコマンドでPythonが正しくインストールされているか確認します。

    python --version
    

3. ComfyUIのダウンロードとセットアップ

ComfyUIをダウンロードする方法は、主にGitを利用する方法と、ポータブル版を利用する方法の2種類があります。今回はGitを利用した方法を推奨します。

  1. Gitのインストール: Gitがインストールされていない場合は、公式ウェブサイトからダウンロードしてインストールしてください。

  2. ComfyUIのクローン: コマンドプロンプトまたはターミナルでComfyUIをインストールしたいディレクトリに移動し、以下のコマンドを実行します。

    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  3. 依存関係のインストール: ComfyUIのディレクトリ内で、必要なライブラリをインストールします。

    pip install -r requirements.txt
    

    ⚠️ 注意: NVIDIA GPUを使用している場合は、CUDA対応のPyTorchが自動的にインストールされます。もしエラーが発生した場合は、手動でpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118のようなコマンドでインストールを試みてください(cu118はCUDAバージョンに合わせて変更)。

4. モデルファイルの配置

Stable Diffusionのモデルファイル(チェックポイントファイル)を適切なディレクトリに配置します。

  1. Civitaiなどのモデル配布サイトから、SDXL Base Modelなどのチェックポイントファイル(例: sd_xl_base_1.0.safetensors)をダウンロードします。ファイルサイズは通常約6GB〜7GBです。
  2. ダウンロードしたモデルファイルを、ComfyUI/models/checkpoints ディレクトリ内に配置します。

ComfyUIの基本的な使い方

インストールが完了したら、ComfyUIを起動し、基本的なワークフローで画像を生成してみましょう。

1. ComfyUIの起動

ComfyUIのディレクトリ内で、以下のコマンドを実行してUIを起動します。

python main.py --cuda-device 0

💡 ポイント: --cuda-device 0は、複数のGPUが搭載されている場合に、利用するGPUを指定するオプションです。通常は0で問題ありません。起動後、ブラウザでhttp://127.0.0.1:8188にアクセスするとUIが表示されます。

2. UIの概要とワークフローの読み込み

ComfyUIの画面は、白いキャンバスにノードが配置されているのが特徴です。 起動直後は、基本的なSDXLのワークフローが自動的に読み込まれています。もし表示されない場合は、画面左上の「Load Default (SDXL)」をクリックしてください。

ノード名 主な役割
Load Checkpoint 使用するStable Diffusionモデルを読み込む
CLIP Text Encode プロンプト(呪文)をAIが理解できる形式に変換
Empty Latent Image 生成する画像の初期サイズとバッチ数を設定
Sampler 潜在空間での画像生成プロセスを実行
VAE Decode 潜在空間のデータを最終的な画像に変換
Save Image 生成された画像を保存

3. 画像生成の実行

基本的なワークフローで画像を生成する手順です。

  1. モデルの選択: 「Load Checkpoint」ノードで、ckpt_nameのドロップダウンリストから、配置したモデルファイル(例: sd_xl_base_1.0.safetensors)を選択します。
  2. プロンプトの入力:
    • 「CLIP Text Encode (Prompt)」ノードのtextボックスに、生成したい画像のポジティブプロンプト(例: masterpiece, 1girl, cat ears, walking in Tokyo street, rainy day, neon lights, highly detailed)を入力します。
    • 「CLIP Text Encode (Negative Prompt)」ノードのtextボックスに、生成したくない要素のネガティブプロンプト(例: low quality, bad anatomy, deformed, ugly)を入力します。
  3. 画像サイズの調整: 「Empty Latent Image」ノードのwidthheightで、生成する画像のサイズ(例: 1024x1024)を設定します。
  4. 生成の実行: 画面右上の「Queue Prompt」ボタンをクリックします。ノードが緑色に光りながら処理が進み、最後に「Save Image」ノードで生成された画像が表示されます。画像はComfyUI/outputディレクトリに保存されます。

ComfyUIをさらに使いこなすためのヒント

ComfyUIは、基本的な画像生成だけでなく、無限の可能性を秘めています。

  • カスタムノードの導入: ComfyUI Manager (pip install ComfyUI-Manager) を導入すると、カスタムノードの検索・インストール・アップデートが簡単にできるようになります。ControlNetやIP-Adapterなど、高度な機能を追加できます。
  • ワークフローの共有と活用: 自分のワークフローをJSONファイルとしてエクスポートしたり、他のユーザーが共有しているワークフロー(Civitaiなどで配布)をインポートして利用したりできます。これにより、複雑な設定を一から構築する手間を省けます。
  • GPU最適化の活用: 2026年時点では、ComfyUIはTensorRTやFlashAttentionなどの最適化技術を内部で活用していますが、さらにパフォーマンスを追求する場合、GPUドライバーの更新や、--cuda-device以外の起動オプション(例: --highvram)を試すことで、生成速度を向上させることが可能です。
  • クラウド環境での利用: ローカル環境のGPUが不足している場合、RunPodやLambda LabsなどのGPUクラウドサービスを利用してComfyUIを動かすことも可能です。これらのサービスでは、高性能なGPU(例: NVIDIA H100)を時間単位でレンタルでき、より高速な生成体験が可能です。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)