🎨
AI・機械学習

ComfyUIのインストールから使い方まで徹底解説!初心者向けガイドで画像生成AIを始めよう

#ComfyUI #インストール #使い方 #初心者 #画像生成AI #Stable Diffusion
AI

ヨミアゲAI編集部

AI音声・動画制作に関する情報をお届けします

ComfyUIとは?なぜ初心者におすすめか

ComfyUIは、Stable Diffusionなどの画像生成AIをノードベースのインターフェースで操作するツールです。従来のWeb UIが「設定項目を埋めて生成」する形式であるのに対し、ComfyUIは「機能ブロック(ノード)を自由に組み合わせてワークフローを構築」します。この視覚的なアプローチは、特に初心者にとって以下のメリットがあります。

  • 直感的な理解: 画像生成のプロセス(モデル読み込み、プロンプト適用、サンプリング、アップスケールなど)がノードとして可視化され、各ステップの機能を直感的に理解しやすいです。
  • 高い柔軟性: ノードを自由に配置・接続できるため、複雑なワークフローも構築可能。例えば、複数のモデルを組み合わせたり、特定ステップだけを繰り返し実行したりといった高度な操作も視覚的に行えます。
  • 効率的なリソース利用: ComfyUIはメモリ使用量が比較的少なく、特定のノードだけを再実行する「キャッシュ機能」により、変更した部分だけを高速処理できます。これにより、試行錯誤の時間が短縮され、特にGPUメモリが限られている環境(例えば8GB VRAMのGPU)でも快適に動作しやすいのが特徴です。
  • 学習の深化: 基本ワークフローから始め、徐々に新しいノードを追加して機能を拡張することで、画像生成AIの仕組み自体を深く学べます。

ComfyUIのインストール方法(2026年2月時点)

ComfyUIのインストールは、主にポータブル版Gitクローン版の2種類があります。Windows環境ではポータブル版が最も手軽で、Linuxやよりカスタマイズしたい場合はGitクローン版が推奨されます。

1. 前提条件の確認

  • OS: Windows 10/11、Linux(Ubuntuなど)、macOS
  • GPU: NVIDIA GPU(CUDA対応)が強く推奨。最低8GB VRAM、推奨は12GB以上です。AMD GPU、Intel Arc GPUも対応しますが、NVIDIAに比べパフォーマンスや安定性に差がある場合があります。
  • Python: Python 3.10.x以降が推奨されます。

2. Windows向けポータブル版のインストール手順

最も簡単な方法です。

  1. ComfyUIのダウンロード: ComfyUIのGitHubリポジトリ(https://github.com/comfyanonymous/ComfyUI)にアクセスし、「Releases」から最新の**ComfyUI_windows_portable_nvidia_cu121_and_cpu.7z(NVIDIA GPU向け、CUDA 12.1対応)のようなファイルをダウンロードします。ファイルサイズは通常1GB前後**です。
  2. ファイルの展開: ダウンロードした.7zファイルを、任意の場所(例: C:\AI\ComfyUI)に展開します。7-Zipなどのアーカイブツールが必要です。
  3. モデルファイルの配置: 展開したフォルダ内のComfyUI\models\checkpointsフォルダに、Stable Diffusionのモデルファイル(.safetensorsまたは.ckpt形式、ファイルサイズは通常2GB〜7GB)を配置します。
  4. ComfyUIの起動: ComfyUIフォルダ直下のrun_nvidia_gpu.bat(NVIDIA GPUの場合)またはrun_cpu.batをダブルクリックして実行します。 コマンドプロンプトが開き、必要な依存関係が自動インストールされた後、ComfyUIがWebブラウザで起動します。

💡 ポイント: 初回起動時は必要なPythonパッケージのダウンロードとインストールが行われるため、インターネット接続が必要です。

3. Gitクローン版のインストール手順(上級者向け/Linux推奨)

  1. GitとPythonのインストール: お使いのOSにGitとPython 3.10.xをインストールします。
  2. リポジトリのクローン:
    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI
    
  3. 依存関係のインストール:
    pip install -r requirements.txt
    
  4. モデルファイルの配置: ポータブル版と同様に、ComfyUI/models/checkpointsにモデルを配置します。
  5. ComfyUIの起動:
    python main.py
    
    ブラウザでComfyUIのUIが開きます(通常 http://127.0.0.1:8188)。

⚠️ 注意: Gitクローン版は環境構築の知識が必要です。Pythonの仮想環境(venv)を使用することを強く推奨します。

ComfyUIの基本的な使い方

ComfyUIのUIは大きく分けてキャンバスプロパティパネル、そしてキュー表示の3つのエリアで構成されます。

  1. キャンバス: ノードを配置し、接続してワークフローを構築するメインエリアです。右クリックでノードを追加できます。
  2. プロパティパネル: 選択したノードの設定変更や、全体の生成設定を行います。
  3. キュー表示: 現在実行中のタスクや、キューに入っているタスクが表示されます。

最初の画像生成ワークフロー

ComfyUIには、一般的な画像生成のためのデフォルトワークフローがプリロードされています。

  1. モデルのロード (Load Checkpoint): キャンバス左上にあるLoad Checkpointノードで、使用したいStable Diffusionモデル(例: sdxl_base_1.0.safetensors)を選択します。
  2. プロンプトの入力 (CLIP Text Encode): CLIP Text Encode (Prompt)ノードに正のプロンプトを入力します。下にある別のCLIP Text Encode (Prompt)ノードには負のプロンプトを入力します。
  3. サンプリングの設定 (Sampler): Samplerノードで、サンプラーの種類(例: dpmpp_2m_sde)、ステップ数(例: 20〜30ステップ)、CFGスケール(例: 7)、シード値などを設定します。
  4. VAEのロード (VAE Decode): VAE Decodeノードは、モデルから出力された潜在空間の画像を、人間が見えるピクセル空間の画像に変換します。通常はLoad Checkpointノードから自動的に接続されます。
  5. 画像の保存 (Save Image): Save Imageノードは、生成された画像を保存します。
  6. 生成の実行: 右上の「Queue Prompt」ボタンをクリックすると、ワークフローが実行され画像が生成されます。

💡 ポイント: 各ノードの入力(左側)と出力(右側)をドラッグ&ドロップで接続することで、データがノード間を流れるように設定します。

ComfyUIを使いこなすためのヒントと注意点

1. モデルとカスタムノードの管理

  • モデルの配置: チェックポイントモデルだけでなく、LoRA、ControlNet、VAEなどの追加モデルも、それぞれ指定されたmodelsサブフォルダ(例: ComfyUI\models\loras)に配置します。
  • カスタムノード: ComfyUIの機能を拡張するカスタムノードが多数公開されています。これらは通常、ComfyUI\custom_nodesフォルダにGitクローンすることで導入できます。

2. パフォーマンスに関する注意点

  • GPUメモリ: 高解像度(例: 1024x1024ピクセル以上)の画像を生成したり、バッチサイズを大きくしたりすると、大量のGPUメモリを消費します。メモリ不足でエラーが発生する場合は、解像度を下げるか、バッチサイズを小さくしてください。
  • キャッシュの活用: ComfyUIはノードの変更がなければ、そのノードまでの処理結果をキャッシュします。これにより、ワークフローの途中の設定変更でも、最初から全てを再計算せずに済み、高速な試行錯誤が可能です。

3. コミュニティとリソース

ComfyUIは活発なコミュニティがあり、多くのワークフロー例やカスタムノードが共有されています。

  • Civitai: 多数のモデルやComfyUIワークフローが共有されています。
  • GitHub: 公式リポジトリやカスタムノードのリポジトリで、最新情報やトラブルシューティングを確認できます。

ComfyUIは、その柔軟性と効率性から、画像生成AIを深く学びたい初心者から上級者まで幅広く支持されています。2026年においても、このノードベースのインターフェースはAIアートの主要なツールの一つであり続けるでしょう。

AI音声でナレーションを作ってみませんか?

ヨミアゲAIを試す(無料)