ComfyUIが解決する課題
Automatic1111やStability AI公式UIなどの従来ツールでは、複雑な画像生成パイプラインを構築する際に制約がありました。複数モデルの組み合わせ、条件分岐、バッチ処理などを実現するには、スクリプトを直接編集する必要がありました。
ComfyUIは、ノードベースのビジュアルプログラミング環境を提供し、コードを書かずに高度な画像生成ワークフローを構築できます。
ComfyUIの概要
主要な特徴
ノードベースインターフェース
– ドラッグ&ドロップで処理フローを構築
– ビジュアルで処理の流れを把握できる
– 再利用可能なワークフローをJSON形式で保存
高度なカスタマイズ性
– カスタムノードで機能を無限に拡張
– Pythonスクリプトで独自処理を追加
– 複数モデルの同時実行・比較が容易
メモリ効率
– 必要な処理のみを実行(不要なノードはスキップ)
– VRAMを効率的に管理
– バッチ処理の最適化
対応モデル
– Stable Diffusion 1.5/2.x/XL/3.5
– ControlNet、LoRA、Textual Inversion
– アニメーション生成(AnimateDiff)
– 超解像(ESRGAN、RealESRGAN)
参考: Stable Diffusion 3.5使い方ガイドでは、最新のSD3.5モデルの特徴と使い方を解説しています。
ComfyUIの導入・セットアップ
システム要件
推奨環境
– GPU: NVIDIA RTX 3060(12GB VRAM)以上
– RAM: 16GB以上
– ストレージ: SSD 50GB以上
– OS: Windows 10/11、Linux、macOS(Apple Silicon対応)
最低環境
– GPU: GTX 1660(6GB VRAM)
– RAM: 8GB
– ストレージ: 30GB
インストール手順(Windows)
1. リポジトリのクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
2. Python環境のセットアップ
# Python 3.10以上が必要
python -m venv venv
venv\Scripts\activate
# 依存関係をインストール
pip install -r requirements.txt
# CUDA対応PyTorchをインストール(NVIDIAの場合)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
3. モデルの配置
ComfyUI/
├── models/
│ ├── checkpoints/ # Stable Diffusionモデル(.safetensors)
│ ├── vae/ # VAEモデル
│ ├── loras/ # LoRAモデル
│ ├── controlnet/ # ControlNetモデル
│ └── embeddings/ # Textual Inversionモデル
Hugging Faceからモデルをダウンロード:
# 例: SD1.5をダウンロード
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors -P models/checkpoints/
4. ComfyUIの起動
python main.py
# ブラウザで http://127.0.0.1:8188 を開く
インストール手順(Linux/macOS)
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
pip install torch torchvision torchaudio
python main.py
基本ワークフロー構築
デフォルトワークフローの理解
ComfyUI起動時に表示される基本ワークフローは、以下のノードで構成されています。
1. Load Checkpointノード
– 使用するStable Diffusionモデルを選択
– 出力: MODEL、CLIP、VAE
2. CLIP Text Encode(Prompt)ノード
– ポジティブプロンプトを入力
– CLIPからテキストエンコーディングを生成
3. CLIP Text Encode(Negative Prompt)ノード
– ネガティブプロンプトを入力
4. Empty Latent Imageノード
– 生成画像のサイズを指定(512×512、1024×1024など)
5. KSamplerノード
– 画像生成の中核
– パラメータ: Steps、CFG、Sampler、Scheduler、Seed
6. VAE Decodeノード
– LatentをRGB画像にデコード
7. Save Imageノード
– 生成画像を保存
基本ワークフローの実行
- Load Checkpoint: モデルを選択(例:
v1-5-pruned-emaonly.safetensors) - Prompt入力:
– Positive:beautiful landscape, mountains, sunset, 8k
– Negative:blurry, low quality, distorted - KSampler設定:
– Steps: 20
– CFG: 7.5
– Sampler:euler_a
– Seed: ランダム(-1)または固定値 - Queue Promptをクリックして実行
カスタムノードの活用
ComfyUI Managerのインストール
カスタムノードを簡単に管理できるツールです。
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
ComfyUI再起動後、右側のメニューに「Manager」ボタンが表示されます。
推奨カスタムノード
1. ControlNet Auxiliary Preprocessors
ControlNet用の前処理(OpenPose検出、Canny抽出など)を実行。
Managerから「ControlNet Auxiliary Preprocessors」を検索してインストール。
2. ComfyUI Impact Pack
顔検出、セグメンテーション、ディテール強化など、高度な画像処理機能を追加。
3. Efficiency Nodes
よく使うノードの組み合わせを1つのノードにまとめ、ワークフローを簡潔化。
4. AnimateDiff
静止画から動画を生成するノード群。
cd ComfyUI/custom_nodes
git clone https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved.git
主要ワークフロー紹介
1. Img2Img(画像から画像)
用途: 既存画像を元に新しい画像を生成
構成:
Load Image → VAE Encode → KSampler(Denoisingあり) → VAE Decode → Save
ポイント:
– Denoising: 0.3-0.5(元画像を維持)/ 0.7-0.9(大幅変更)
– 既存画像のスタイル変換、細部調整に最適
2. ControlNet統合ワークフロー
用途: ポーズや構図を精密に制御
構成:
Load Image
→ Preprocessor(OpenPose/Canny/Depthなど)
→ ControlNet Apply
→ KSampler
→ VAE Decode
詳細: ControlNet完全ガイドで、各プリプロセッサの使い分けを解説しています。
3. LoRA適用ワークフロー
用途: 特定のスタイルやキャラクターを再現
構成:
Load Checkpoint
→ Load LoRA(重み: 0.5-1.0)
→ CLIP Encode
→ KSampler
ポイント:
– 複数LoRAをスタック可能(最大3-4個推奨)
– 重みの調整で効果の強さを制御
参考: LoRAトレーニング入門で、独自LoRAの作成方法を紹介しています。
4. 高解像度生成(Hires Fix)
用途: 低解像度で生成→アップスケール→再生成で高品質化
構成:
Empty Latent(512x512)
→ KSampler
→ Latent Upscale(2x)
→ KSampler(Denoising 0.4-0.6)
→ VAE Decode
メリット:
– VRAMを節約しながら高解像度を生成
– ディテールが向上
5. バッチ比較ワークフロー
用途: 複数パラメータを同時テスト
構成:
Load Checkpoint
→ CLIP Encode
→ KSampler(Seed固定)
├→ VAE Decode → Save(Sampler: euler_a)
├→ VAE Decode → Save(Sampler: dpm++_2m)
└→ VAE Decode → Save(Sampler: dpm++_sde)
実践的なテクニック
1. ワークフローの保存と共有
保存方法:
1. 右クリック → 「Save (API Format)」または「Save」
2. JSONファイルとして保存
3. 後で「Load」で読み込み
共有方法:
– 画像に埋め込み: 生成画像を右クリック → 「Save Image」(ワークフロー情報を含む)
– 他ユーザーはその画像を「Load」にドラッグ&ドロップでワークフロー復元
2. グループ化と整理
複雑なワークフローの管理:
– ノードを選択 → 右クリック → 「Add to Group」
– グループに色やラベルを付けて視認性向上
3. デバッグとトラブルシューティング
ノードのプレビュー:
– 任意のノードを右クリック → 「Add Preview」
– 途中段階の画像を確認可能
エラーの確認:
– コンソール(ターミナル)でエラーメッセージを確認
– 赤いノードは接続や設定に問題あり
【PR】ComfyUIの環境構築が難しいと感じた方には「ConoHa AI Canvas」がおすすめです。ブラウザだけでStable Diffusionベースの画像生成が可能で、高性能GPUの準備が不要です。
注意点
VRAMメモリ管理
症状: “CUDA out of memory”エラー
対処法:
– --lowvramまたは--medvramオプションで起動
bash
python main.py --lowvram
– バッチサイズを1に設定
– 不要なカスタムノードをアンインストール
モデルのロードエラー
症状: モデルが表示されない、ロードできない
確認ポイント:
– ファイルが正しいディレクトリにあるか(models/checkpoints/など)
– ファイル名に特殊文字が含まれていないか
– .safetensors形式を推奨(.ckptはセキュリティリスクあり)
カスタムノードの競合
症状: ComfyUIが起動しない、エラーが頻発
対処法:
1. 最近インストールしたカスタムノードを削除
2. custom_nodesディレクトリをリネームして起動確認
3. 問題のノードを特定し、Issueを報告またはアップデート待ち
FAQ
Q1. Automatic1111とComfyUI、どちらを使うべきですか?
初心者や簡単な生成にはAutomatic1111が使いやすいですが、複雑なワークフロー、複数モデルの組み合わせ、バッチ処理を行う場合はComfyUIが適しています。Stable Diffusion 3.5など最新モデルの活用にもComfyUIが推奨されます。
Q2. ComfyUIでMidjourneyのような品質を出せますか?
ComfyUIは柔軟性が高く、適切なモデル・LoRA・プロンプトを組み合わせることで、Midjourneyに匹敵する品質を実現できます。画像生成AI徹底比較で、各ツールの品質比較を行っています。
Q3. スマートフォンでComfyUIを使えますか?
ComfyUIはPC向けですが、リモートサーバーにセットアップし、スマホのブラウザからアクセスする方法があります。Google ColabやRunpodなどのクラウドサービスを利用することで、ローカル環境なしでも使用可能です。
Q4. ワークフローが複雑で理解できません。どこから始めれば良いですか?
まず公式サンプルやコミュニティ共有のシンプルなワークフローを試し、各ノードの役割を理解することから始めてください。Stable Diffusion完全ガイドで基本的な画像生成の仕組みを学ぶと、ComfyUIの理解が深まります。
関連記事
- Stable Diffusion完全ガイド – 基本的な使い方とモデル選択
- Stable Diffusion 3.5使い方ガイド – 最新モデルの活用法
- 画像生成AI徹底比較 – 主要サービスの比較
出典
- ComfyUI公式リポジトリ: https://github.com/comfyanonymous/ComfyUI
- ComfyUI Manager: https://github.com/ltdrdata/ComfyUI-Manager
- ComfyUI Examples: https://comfyanonymous.github.io/ComfyUI_examples/


コメント