ComfyUI完全ガイド|ノードベースで画像生成AIを自在に操る方法

comfyui-workflow-library Uncategorized

ComfyUIが解決する課題

Automatic1111やStability AI公式UIなどの従来ツールでは、複雑な画像生成パイプラインを構築する際に制約がありました。複数モデルの組み合わせ、条件分岐、バッチ処理などを実現するには、スクリプトを直接編集する必要がありました。

ComfyUIは、ノードベースのビジュアルプログラミング環境を提供し、コードを書かずに高度な画像生成ワークフローを構築できます。

ComfyUIの概要

主要な特徴

ノードベースインターフェース
– ドラッグ&ドロップで処理フローを構築
– ビジュアルで処理の流れを把握できる
– 再利用可能なワークフローをJSON形式で保存

高度なカスタマイズ性
– カスタムノードで機能を無限に拡張
– Pythonスクリプトで独自処理を追加
– 複数モデルの同時実行・比較が容易

メモリ効率
– 必要な処理のみを実行(不要なノードはスキップ)
– VRAMを効率的に管理
– バッチ処理の最適化

対応モデル
– Stable Diffusion 1.5/2.x/XL/3.5
– ControlNet、LoRA、Textual Inversion
– アニメーション生成(AnimateDiff)
– 超解像(ESRGAN、RealESRGAN)

参考: Stable Diffusion 3.5使い方ガイドでは、最新のSD3.5モデルの特徴と使い方を解説しています。

ComfyUIの導入・セットアップ

システム要件

推奨環境
– GPU: NVIDIA RTX 3060(12GB VRAM)以上
– RAM: 16GB以上
– ストレージ: SSD 50GB以上
– OS: Windows 10/11、Linux、macOS(Apple Silicon対応)

最低環境
– GPU: GTX 1660(6GB VRAM)
– RAM: 8GB
– ストレージ: 30GB

インストール手順(Windows)

1. リポジトリのクローン

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

2. Python環境のセットアップ

# Python 3.10以上が必要
python -m venv venv
venv\Scripts\activate

# 依存関係をインストール
pip install -r requirements.txt

# CUDA対応PyTorchをインストール(NVIDIAの場合)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

3. モデルの配置

ComfyUI/
├── models/
│   ├── checkpoints/        # Stable Diffusionモデル(.safetensors)
│   ├── vae/                # VAEモデル
│   ├── loras/              # LoRAモデル
│   ├── controlnet/         # ControlNetモデル
│   └── embeddings/         # Textual Inversionモデル

Hugging Faceからモデルをダウンロード:

# 例: SD1.5をダウンロード
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors -P models/checkpoints/

4. ComfyUIの起動

python main.py

# ブラウザで http://127.0.0.1:8188 を開く

インストール手順(Linux/macOS)

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

python3 -m venv venv
source venv/bin/activate

pip install -r requirements.txt
pip install torch torchvision torchaudio

python main.py

基本ワークフロー構築

デフォルトワークフローの理解

ComfyUI起動時に表示される基本ワークフローは、以下のノードで構成されています。

1. Load Checkpointノード
– 使用するStable Diffusionモデルを選択
– 出力: MODEL、CLIP、VAE

2. CLIP Text Encode(Prompt)ノード
– ポジティブプロンプトを入力
– CLIPからテキストエンコーディングを生成

3. CLIP Text Encode(Negative Prompt)ノード
– ネガティブプロンプトを入力

4. Empty Latent Imageノード
– 生成画像のサイズを指定(512×512、1024×1024など)

5. KSamplerノード
– 画像生成の中核
– パラメータ: Steps、CFG、Sampler、Scheduler、Seed

6. VAE Decodeノード
– LatentをRGB画像にデコード

7. Save Imageノード
– 生成画像を保存

基本ワークフローの実行

  1. Load Checkpoint: モデルを選択(例: v1-5-pruned-emaonly.safetensors
  2. Prompt入力:
    – Positive: beautiful landscape, mountains, sunset, 8k
    – Negative: blurry, low quality, distorted
  3. KSampler設定:
    – Steps: 20
    – CFG: 7.5
    – Sampler: euler_a
    – Seed: ランダム(-1)または固定値
  4. Queue Promptをクリックして実行

カスタムノードの活用

ComfyUI Managerのインストール

カスタムノードを簡単に管理できるツールです。

cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git

ComfyUI再起動後、右側のメニューに「Manager」ボタンが表示されます。

推奨カスタムノード

1. ControlNet Auxiliary Preprocessors

ControlNet用の前処理(OpenPose検出、Canny抽出など)を実行。

Managerから「ControlNet Auxiliary Preprocessors」を検索してインストール。

2. ComfyUI Impact Pack

顔検出、セグメンテーション、ディテール強化など、高度な画像処理機能を追加。

3. Efficiency Nodes

よく使うノードの組み合わせを1つのノードにまとめ、ワークフローを簡潔化。

4. AnimateDiff

静止画から動画を生成するノード群。

cd ComfyUI/custom_nodes
git clone https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved.git

主要ワークフロー紹介

1. Img2Img(画像から画像)

用途: 既存画像を元に新しい画像を生成

構成:

Load Image → VAE Encode → KSampler(Denoisingあり) → VAE Decode → Save

ポイント:
– Denoising: 0.3-0.5(元画像を維持)/ 0.7-0.9(大幅変更)
– 既存画像のスタイル変換、細部調整に最適

2. ControlNet統合ワークフロー

用途: ポーズや構図を精密に制御

構成:

Load Image
  → Preprocessor(OpenPose/Canny/Depthなど)
  → ControlNet Apply
  → KSampler
  → VAE Decode

詳細: ControlNet完全ガイドで、各プリプロセッサの使い分けを解説しています。

3. LoRA適用ワークフロー

用途: 特定のスタイルやキャラクターを再現

構成:

Load Checkpoint
  → Load LoRA(重み: 0.5-1.0)
  → CLIP Encode
  → KSampler

ポイント:
– 複数LoRAをスタック可能(最大3-4個推奨)
– 重みの調整で効果の強さを制御

参考: LoRAトレーニング入門で、独自LoRAの作成方法を紹介しています。

4. 高解像度生成(Hires Fix)

用途: 低解像度で生成→アップスケール→再生成で高品質化

構成:

Empty Latent(512x512)
  → KSampler
  → Latent Upscale(2x)
  → KSampler(Denoising 0.4-0.6)
  → VAE Decode

メリット:
– VRAMを節約しながら高解像度を生成
– ディテールが向上

5. バッチ比較ワークフロー

用途: 複数パラメータを同時テスト

構成:

Load Checkpoint
  → CLIP Encode
  → KSampler(Seed固定)
    ├→ VAE Decode → Save(Sampler: euler_a)
    ├→ VAE Decode → Save(Sampler: dpm++_2m)
    └→ VAE Decode → Save(Sampler: dpm++_sde)

実践的なテクニック

1. ワークフローの保存と共有

保存方法:
1. 右クリック → 「Save (API Format)」または「Save」
2. JSONファイルとして保存
3. 後で「Load」で読み込み

共有方法:
– 画像に埋め込み: 生成画像を右クリック → 「Save Image」(ワークフロー情報を含む)
– 他ユーザーはその画像を「Load」にドラッグ&ドロップでワークフロー復元

2. グループ化と整理

複雑なワークフローの管理:
– ノードを選択 → 右クリック → 「Add to Group」
– グループに色やラベルを付けて視認性向上

3. デバッグとトラブルシューティング

ノードのプレビュー:
– 任意のノードを右クリック → 「Add Preview」
– 途中段階の画像を確認可能

エラーの確認:
– コンソール(ターミナル)でエラーメッセージを確認
– 赤いノードは接続や設定に問題あり


【PR】ComfyUIの環境構築が難しいと感じた方には「ConoHa AI Canvas」がおすすめです。ブラウザだけでStable Diffusionベースの画像生成が可能で、高性能GPUの準備が不要です。

ConoHa AI Canvasで画像生成を試す


注意点

VRAMメモリ管理

症状: “CUDA out of memory”エラー

対処法:
--lowvramまたは--medvramオプションで起動
bash
python main.py --lowvram

– バッチサイズを1に設定
– 不要なカスタムノードをアンインストール

モデルのロードエラー

症状: モデルが表示されない、ロードできない

確認ポイント:
– ファイルが正しいディレクトリにあるか(models/checkpoints/など)
– ファイル名に特殊文字が含まれていないか
.safetensors形式を推奨(.ckptはセキュリティリスクあり)

カスタムノードの競合

症状: ComfyUIが起動しない、エラーが頻発

対処法:
1. 最近インストールしたカスタムノードを削除
2. custom_nodesディレクトリをリネームして起動確認
3. 問題のノードを特定し、Issueを報告またはアップデート待ち

FAQ

Q1. Automatic1111とComfyUI、どちらを使うべきですか?

初心者や簡単な生成にはAutomatic1111が使いやすいですが、複雑なワークフロー、複数モデルの組み合わせ、バッチ処理を行う場合はComfyUIが適しています。Stable Diffusion 3.5など最新モデルの活用にもComfyUIが推奨されます。

Q2. ComfyUIでMidjourneyのような品質を出せますか?

ComfyUIは柔軟性が高く、適切なモデル・LoRA・プロンプトを組み合わせることで、Midjourneyに匹敵する品質を実現できます。画像生成AI徹底比較で、各ツールの品質比較を行っています。

Q3. スマートフォンでComfyUIを使えますか?

ComfyUIはPC向けですが、リモートサーバーにセットアップし、スマホのブラウザからアクセスする方法があります。Google ColabやRunpodなどのクラウドサービスを利用することで、ローカル環境なしでも使用可能です。

Q4. ワークフローが複雑で理解できません。どこから始めれば良いですか?

まず公式サンプルやコミュニティ共有のシンプルなワークフローを試し、各ノードの役割を理解することから始めてください。Stable Diffusion完全ガイドで基本的な画像生成の仕組みを学ぶと、ComfyUIの理解が深まります。

関連記事

出典

  • ComfyUI公式リポジトリ: https://github.com/comfyanonymous/ComfyUI
  • ComfyUI Manager: https://github.com/ltdrdata/ComfyUI-Manager
  • ComfyUI Examples: https://comfyanonymous.github.io/ComfyUI_examples/

コメント