ComfyUIとは
ComfyUIは、Stable Diffusionを「ノードベース」で操作できる画像生成インターフェースです。ノードをつなぎ合わせて画像生成のワークフローを視覚的に構築できるため、複雑な処理や実験的な試行が容易になります。
快適な画像生成環境を整えるなら
ComfyUIを本格的に活用するには、NVIDIA製GPU搭載のPCが必須です。
画像生成に最適化されたゲーミングPCなら、ストレスなくワークフローを構築できます。→ ドスパラのクリエイター向けPCをチェック
ノードベースとは
ノード(Node): 1つの処理を表すボックス
エッジ(Edge): ノード同士をつなぐ線
例えば、「画像を読み込む」「プロンプトを入力する」「画像を生成する」「保存する」といった各処理が個別のノードになっており、それらを線でつないで処理の流れを作ります。
この仕組みは、動画編集ソフト(DaVinci Resolveなど)やゲーム開発エンジン(Unreal Engineなど)でも採用されており、視覚的に処理を理解・編集できるのが特徴です。
AUTOMATIC1111 WebUIとの違い
| 項目 | AUTOMATIC1111 | ComfyUI |
|---|---|---|
| UI形式 | フォーム入力型 | ノードベース |
| 学習曲線 | 初心者向け | やや高め |
| 柔軟性 | 基本機能は十分 | 極めて高い |
| 処理の可視化 | なし | ワークフロー全体を把握 |
| カスタマイズ性 | 拡張機能で対応 | 標準で自由度が高い |
| メモリ効率 | 標準 | 最適化されている |
ComfyUIが向いている人
– 複雑なワークフローを構築したい
– 処理の流れを細かく制御したい
– 実験的な手法を試したい
– メモリ効率を重視したい
AUTOMATIC1111が向いている人
– とにかく簡単に始めたい
– 標準的な使い方で十分
– UI/UXのシンプルさを重視
インストール方法
Windows環境
必要な環境
– Python 3.10 または 3.11
– Git
– NVIDIA GPU(CUDA対応)推奨
手順1: リポジトリのクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
手順2: 依存関係のインストール
# venv環境の作成(推奨)
python -m venv venv
venv\Scripts\activate
# 依存パッケージのインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
手順3: モデルの配置
Stable Diffusionモデル(.safetensorsファイル)を以下に配置します。
ComfyUI/models/checkpoints/
手順4: 起動
python main.py
ブラウザで http://127.0.0.1:8188 にアクセスします。
Mac環境(Apple Silicon)
手順1: クローン
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
手順2: 依存関係のインストール
pip install torch torchvision torchaudio
pip install -r requirements.txt
手順3: モデル配置と起動
Windowsと同様にモデルを配置し、python main.pyで起動します。
Linux環境
Ubuntu/Debian系
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install torch torchvision torchaudio
pip install -r requirements.txt
python main.py
基本操作
インターフェースの見方
起動後、画面には以下の要素があります。
1. キャンバス(中央)
ノードを配置し、ワークフローを構築するエリア。マウスホイールでズーム、ドラッグでパン(移動)できます。
2. メニュー(右クリック)
キャンバス上で右クリックすると、利用可能なノードのリストが表示されます。
3. Queue Prompt(右上)
ワークフローを実行するボタン。クリックすると画像生成が開始されます。
4. 設定・履歴パネル(サイドバー)
生成履歴や設定を確認できます。
基本的なワークフローの作成
初回起動時のデフォルトワークフロー
ComfyUIを起動すると、デフォルトで基本的なワークフローが表示されています。
主なノード:
– Load Checkpoint: モデルを読み込む
– CLIP Text Encode (Prompt): プロンプトを入力
– KSampler: 画像生成のサンプリング処理
– VAE Decode: 潜在空間から画像へデコード
– Save Image: 画像を保存
ワークフローの実行手順
1. CLIP Text Encode (Prompt)ノードにポジティブプロンプトを入力
2. ネガティブプロンプト用のノードに除外したい要素を入力
3. KSamplerでステップ数やCFGを調整
4. 右上の「Queue Prompt」ボタンをクリック
5. 生成された画像がSave Imageノードに表示される
ノードの追加と接続
ノードの追加
1. キャンバス上で右クリック
2. カテゴリから選択(例: loaders > Load LoRA)
3. 選択したノードが配置される
ノードの接続
1. 出力ポート(ノード右側の○)をクリック
2. 入力ポート(ノード左側の○)までドラッグ
3. 線がつながる
接続の削除
線を右クリック > Delete または線をドラッグして外す
ノードの削除
ノードを選択して Deleteキーを押す
パラメータの調整
各ノードには調整可能なパラメータがあります。
KSamplerの主要パラメータ
– seed: ランダムシード(固定すると同じ画像を再現可能)
– steps: サンプリングステップ数(20-40推奨)
– cfg: CFG Scale(7-11推奨)
– sampler_name: サンプラーの種類(DPM++ 2M Karrasなど)
– scheduler: スケジューラー(karras, normalなど)
– denoise: ノイズ除去の強さ(1.0で完全生成、0.0で変化なし)
実践的なワークフロー例
ワークフロー1: img2img(画像から画像)
既存の画像をベースに、別の画像を生成します。
ノード構成
1. Load Image: 参照画像を読み込む
2. VAE Encode: 画像を潜在空間にエンコード
3. Load Checkpoint: モデル読み込み
4. CLIP Text Encode: プロンプト入力
5. KSampler: 生成(latent_imageにVAE Encodeの出力を接続)
6. VAE Decode: デコード
7. Save Image: 保存
ポイント
KSamplerのdenoiseを0.5-0.8に設定すると、元画像の構図を保ちつつ変化させられます。
ComfyUIを快適に動かすには
ComfyUIは複雑なワークフローになるほど処理負荷が高くなります。高性能GPUが推奨です。
| 特徴 | 内容 |
|---|---|
| 推奨GPU | RTX 4070 Ti以上(VRAM 12GB以上) |
| 複雑ワークフロー | VRAM 16GB以上で快適 |
| バッチ処理 | 高性能GPUなら大量生成も高速 |
ワークフロー2: LoRAの適用
ノード追加
1. Load LoRAノードを追加
2. modelとclipの出力を後続ノードに接続
接続例
Load Checkpoint → Load LoRA → CLIP Text Encode
→ KSampler
Load LoRAのstrength_modelとstrength_clipでLoRAの強度を調整します(0.5-1.0推奨)。
ワークフロー3: ControlNet適用
ノード構成
1. Load ControlNet Model: ControlNetモデル読み込み
2. Load Image: 参照画像
3. Apply ControlNet: ControlNetを適用
4. プリプロセッサノード(Canny Edge, OpenPoseなど)
接続例
Load Image → Canny Edge → Apply ControlNet → KSampler
ControlNetで構図やポーズを制御しながら画像生成できます。
ワークフロー4: Hires.fix(高解像度化)
ノード構成
1. 通常の生成ワークフロー
2. Latent Upscale: 潜在空間でアップスケール
3. 追加のKSampler: 2回目のサンプリング
4. VAE DecodeとSave Image
接続例
KSampler(1回目) → Latent Upscale → KSampler(2回目) → VAE Decode → Save Image
1回目で512×512生成、Upscaleで1024×1024に拡大、2回目のサンプリングで詳細を追加します。
ワークフロー5: バッチ処理(複数画像生成)
方法1: KSamplerのbatch_size
Empty Latent Imageノードのbatch_sizeを2以上に設定すると、一度に複数生成されます。
方法2: Queue Promptの繰り返し
Queue Promptの右にある数値欄に回数を入力(例: 10)し、Queueボタンを押すと、10回連続で生成されます。
カスタムノードの追加
ComfyUIの強みは、コミュニティが作成したカスタムノードを追加できることです。
カスタムノードのインストール
方法1: ComfyUI Manager(推奨)
ComfyUI Managerを導入すると、GUIでカスタムノードをインストールできます。
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
再起動後、右下に「Manager」ボタンが表示されます。
方法2: 手動インストール
cd ComfyUI/custom_nodes
git clone [カスタムノードのリポジトリURL]
再起動すると新しいノードが利用可能になります。
おすすめカスタムノード
ComfyUI-Impact-Pack
– 顔検出・補正
– アップスケール強化
– セグメンテーション
ComfyUI-AnimateDiff
– アニメーション生成
– 動画への拡張
ComfyUI-Advanced-ControlNet
– ControlNetの高度な制御
– 複数ControlNetの適用
rgthree’s ComfyUI Nodes
– UIの改善
– ワークフロー管理機能
ワークフローの保存と共有
保存方法
方法1: JSONとして保存
– 「Save」ボタン → ワークフローがJSONファイルで保存される
– ComfyUI/output/に保存される
方法2: 画像にワークフローを埋め込み
生成された画像にはワークフロー情報が自動で埋め込まれます。その画像をComfyUIにドラッグ&ドロップすると、ワークフローが復元されます。
共有方法
ComfyUI Workflows(コミュニティサイト)
– OpenArt ComfyUI Workflows
– CivitAI ComfyUI Section
ここで他のユーザーが作成したワークフローをダウンロードし、自分の環境で実行できます。
トラブルシューティング
ノードが見つからない
原因: カスタムノードが未インストール
対処法:
1. ComfyUI Managerで該当ノードを検索
2. Installボタンでインストール
3. ComfyUIを再起動
モデルが読み込まれない
チェック項目:
1. モデルファイルが正しいフォルダにあるか
– Checkpoint: models/checkpoints/
– LoRA: models/loras/
– ControlNet: models/controlnet/
2. ファイル形式が.safetensorsまたは.ckptか
3. SDXLモデルをSD1.5用ノードで読んでいないか
画像が生成されない
原因:
– ノードの接続が不完全
– 必須パラメータが未設定
対処法:
1. すべてのノードが正しく接続されているか確認
2. エラーメッセージをコンソール(ターミナル)で確認
3. デフォルトワークフローから始めて、1つずつノードを追加
メモリ不足エラー
対処法:
1. --lowvramオプション付きで起動
bash
python main.py --lowvram
2. バッチサイズを1に
3. 解像度を下げる
ComfyUI vs AUTOMATIC1111: 使い分けのポイント
ComfyUIを使うべき場面
- 複数の処理を組み合わせたい(LoRA+ControlNet+Upscaleなど)
- 実験的なワークフローを試したい
- メモリ効率を重視したい
- 処理の流れを視覚的に把握したい
AUTOMATIC1111を使うべき場面
- とにかく素早く画像を生成したい
- シンプルなUI/UXを好む
- プロンプト入力に集中したい
- 拡張機能のエコシステムを活用したい
両方使うハイブリッド運用
多くのユーザーは、用途に応じて使い分けています。
– 日常的な生成: AUTOMATIC1111
– 複雑なワークフロー: ComfyUI
両方インストールし、モデルフォルダをシンボリックリンクで共有することも可能です。
よくある質問
Q. AUTOMATIC1111とComfyUI、どちらを使うべきですか?
初心者ならAUTOMATIC1111、複雑なワークフローを組みたいならComfyUIがおすすめです。AUTOMATIC1111はフォーム入力型で直感的に使えますが、ComfyUIはノードベースで学習コストがやや高い一方、柔軟性とメモリ効率が優れています。多くのユーザーは両方インストールし、日常的な生成はAUTOMATIC1111、複雑な処理はComfyUIと使い分けています。まずはAUTOMATIC1111で慣れてから、必要に応じてComfyUIに移行するのが無難です。
Q. ノードが見つからない・使えないのですが?
カスタムノードが未インストールの可能性があります。ComfyUI Managerを導入し、「Manager」ボタンから該当ノードを検索してインストールしてください。インストール後は必ずComfyUIを再起動します。それでも見つからない場合は、ワークフロー作成者が使用しているカスタムノードのリポジトリURLを確認し、custom_nodes/フォルダに手動でクローンしてください。
Q. ワークフローを保存・共有するには?
ワークフローは2つの方法で保存できます。1つ目は「Save」ボタンでJSONファイルとして保存する方法、2つ目は生成画像に自動埋め込みされるメタデータを利用する方法です。生成された画像をComfyUIにドラッグ&ドロップすると、その画像を作成したワークフローが自動的に復元されます。この仕組みにより、OpenArtやCivitaiなどのコミュニティサイトでワークフローを簡単に共有できます。
Q. メモリ不足でエラーが出ます
ComfyUIを--lowvramオプション付きで起動してください(python main.py --lowvram)。また、バッチサイズを1に設定、生成解像度を512×512程度に下げる、複数ControlNetやLoRAを使用している場合は減らす、といった対策が有効です。VRAM 8GB以下の環境では、SDXL使用時に特にメモリ不足が発生しやすいため、SD1.5モデルの使用も検討してください。
さらに深く学ぶには
【PR】
📚 書籍で体系的に学ぶ
「Stable Diffusion AI画像生成ガイドブック」
– ComfyUIの実践的なワークフロー解説
– ノードベース操作の基礎から応用まで
– 初心者にもわかりやすい構成
🎓 プロから直接学ぶ
独学に限界を感じたら、DMM WEBCAMP がおすすめです。
- 現役エンジニアのマンツーマン指導
- 実践的なカリキュラム
- 画像生成AIのスキルをポートフォリオに
給付金で最大80%オフ(実質18万円〜) → DMM WEBCAMP 無料カウンセリングに申し込む
まとめ
ComfyUIは、ノードベースで柔軟な画像生成ワークフローを構築できる強力なツールです。
重要ポイント
– ノードをつなげて処理フローを視覚的に構築
– AUTOMATIC1111より学習コストは高いが、柔軟性は圧倒的
– メモリ効率が良く、複雑な処理にも対応
– カスタムノードで機能拡張が容易
– ワークフローを画像に埋め込んで共有可能
最初はデフォルトワークフローから始め、少しずつノードを追加してカスタマイズしていくと良いでしょう。ComfyUIの自由度の高さに慣れると、画像生成の可能性が大きく広がります。
特に、複数のLoRAやControlNetを組み合わせた高度な生成、アニメーション生成、大量バッチ処理など、AUTOMATIC1111では実現困難だったワークフローが実現できます。
おすすめ書籍
画像生成AIの基礎から応用まで体系的に学びたい方におすすめの一冊です。
『画像生成AI Stable Diffusion スタートガイド』 AICU media(2,640円)
Stable Diffusionの導入から実践的なテクニックまで、初心者でもわかりやすく解説されています。
関連記事
– 【2026年最新】画像生成AI徹底比較|Midjourney・GPT-4o・Stable Diffusion・にじジャーニー
– 【超初心者向け】Stable Diffusionのインストール方法|PC環境構築から使い方まで
– Stable Diffusion XL(SDXL)完全ガイド|導入から実践まで
– ControlNet完全ガイド|Stable Diffusionでポーズ・構図を完全制御
– LoRAの使い方完全ガイド


コメント