ComfyUIの使い方入門|ノードベースで画像生成ワークフローを構築

comfyui-guide 画像生成AI

ComfyUIとは

ComfyUIは、Stable Diffusionを「ノードベース」で操作できる画像生成インターフェースです。ノードをつなぎ合わせて画像生成のワークフローを視覚的に構築できるため、複雑な処理や実験的な試行が容易になります。

快適な画像生成環境を整えるなら

ComfyUIを本格的に活用するには、NVIDIA製GPU搭載のPCが必須です。
画像生成に最適化されたゲーミングPCなら、ストレスなくワークフローを構築できます。

ドスパラのクリエイター向けPCをチェック

ノードベースとは

ノード(Node): 1つの処理を表すボックス
エッジ(Edge): ノード同士をつなぐ線

例えば、「画像を読み込む」「プロンプトを入力する」「画像を生成する」「保存する」といった各処理が個別のノードになっており、それらを線でつないで処理の流れを作ります。

この仕組みは、動画編集ソフト(DaVinci Resolveなど)やゲーム開発エンジン(Unreal Engineなど)でも採用されており、視覚的に処理を理解・編集できるのが特徴です。

AUTOMATIC1111 WebUIとの違い

項目 AUTOMATIC1111 ComfyUI
UI形式 フォーム入力型 ノードベース
学習曲線 初心者向け やや高め
柔軟性 基本機能は十分 極めて高い
処理の可視化 なし ワークフロー全体を把握
カスタマイズ性 拡張機能で対応 標準で自由度が高い
メモリ効率 標準 最適化されている

ComfyUIが向いている人
– 複雑なワークフローを構築したい
– 処理の流れを細かく制御したい
– 実験的な手法を試したい
– メモリ効率を重視したい

AUTOMATIC1111が向いている人
– とにかく簡単に始めたい
– 標準的な使い方で十分
– UI/UXのシンプルさを重視

インストール方法

Windows環境

必要な環境
– Python 3.10 または 3.11
– Git
– NVIDIA GPU(CUDA対応)推奨

手順1: リポジトリのクローン

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

手順2: 依存関係のインストール

# venv環境の作成(推奨)
python -m venv venv
venv\Scripts\activate

# 依存パッケージのインストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt

手順3: モデルの配置
Stable Diffusionモデル(.safetensorsファイル)を以下に配置します。

ComfyUI/models/checkpoints/

手順4: 起動

python main.py

ブラウザで http://127.0.0.1:8188 にアクセスします。

Mac環境(Apple Silicon)

手順1: クローン

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

手順2: 依存関係のインストール

pip install torch torchvision torchaudio
pip install -r requirements.txt

手順3: モデル配置と起動
Windowsと同様にモデルを配置し、python main.pyで起動します。

Linux環境

Ubuntu/Debian系

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install torch torchvision torchaudio
pip install -r requirements.txt
python main.py

基本操作

インターフェースの見方

起動後、画面には以下の要素があります。

1. キャンバス(中央)
ノードを配置し、ワークフローを構築するエリア。マウスホイールでズーム、ドラッグでパン(移動)できます。

2. メニュー(右クリック)
キャンバス上で右クリックすると、利用可能なノードのリストが表示されます。

3. Queue Prompt(右上)
ワークフローを実行するボタン。クリックすると画像生成が開始されます。

4. 設定・履歴パネル(サイドバー)
生成履歴や設定を確認できます。

基本的なワークフローの作成

初回起動時のデフォルトワークフロー

ComfyUIを起動すると、デフォルトで基本的なワークフローが表示されています。

主なノード:
Load Checkpoint: モデルを読み込む
CLIP Text Encode (Prompt): プロンプトを入力
KSampler: 画像生成のサンプリング処理
VAE Decode: 潜在空間から画像へデコード
Save Image: 画像を保存

ワークフローの実行手順
1. CLIP Text Encode (Prompt)ノードにポジティブプロンプトを入力
2. ネガティブプロンプト用のノードに除外したい要素を入力
3. KSamplerでステップ数やCFGを調整
4. 右上の「Queue Prompt」ボタンをクリック
5. 生成された画像がSave Imageノードに表示される

ノードの追加と接続

ノードの追加
1. キャンバス上で右クリック
2. カテゴリから選択(例: loaders > Load LoRA
3. 選択したノードが配置される

ノードの接続
1. 出力ポート(ノード右側の○)をクリック
2. 入力ポート(ノード左側の○)までドラッグ
3. 線がつながる

接続の削除
線を右クリック > Delete または線をドラッグして外す

ノードの削除
ノードを選択して Deleteキーを押す

パラメータの調整

各ノードには調整可能なパラメータがあります。

KSamplerの主要パラメータ
seed: ランダムシード(固定すると同じ画像を再現可能)
steps: サンプリングステップ数(20-40推奨)
cfg: CFG Scale(7-11推奨)
sampler_name: サンプラーの種類(DPM++ 2M Karrasなど)
scheduler: スケジューラー(karras, normalなど)
denoise: ノイズ除去の強さ(1.0で完全生成、0.0で変化なし)

実践的なワークフロー例

ワークフロー1: img2img(画像から画像)

既存の画像をベースに、別の画像を生成します。

ノード構成
1. Load Image: 参照画像を読み込む
2. VAE Encode: 画像を潜在空間にエンコード
3. Load Checkpoint: モデル読み込み
4. CLIP Text Encode: プロンプト入力
5. KSampler: 生成(latent_imageにVAE Encodeの出力を接続)
6. VAE Decode: デコード
7. Save Image: 保存

ポイント
KSamplerdenoiseを0.5-0.8に設定すると、元画像の構図を保ちつつ変化させられます。

ComfyUIを快適に動かすには

ComfyUIは複雑なワークフローになるほど処理負荷が高くなります。高性能GPUが推奨です。

特徴 内容
推奨GPU RTX 4070 Ti以上(VRAM 12GB以上)
複雑ワークフロー VRAM 16GB以上で快適
バッチ処理 高性能GPUなら大量生成も高速

クリエイター向けPC(GPU搭載)を見る

ワークフロー2: LoRAの適用

ノード追加
1. Load LoRAノードを追加
2. modelclipの出力を後続ノードに接続

接続例

Load Checkpoint → Load LoRA → CLIP Text Encode
                             → KSampler

Load LoRAstrength_modelstrength_clipでLoRAの強度を調整します(0.5-1.0推奨)。

ワークフロー3: ControlNet適用

ノード構成
1. Load ControlNet Model: ControlNetモデル読み込み
2. Load Image: 参照画像
3. Apply ControlNet: ControlNetを適用
4. プリプロセッサノード(Canny Edge, OpenPoseなど)

接続例

Load Image → Canny Edge → Apply ControlNet → KSampler

ControlNetで構図やポーズを制御しながら画像生成できます。

ワークフロー4: Hires.fix(高解像度化)

ノード構成
1. 通常の生成ワークフロー
2. Latent Upscale: 潜在空間でアップスケール
3. 追加のKSampler: 2回目のサンプリング
4. VAE DecodeSave Image

接続例

KSampler(1回目) → Latent Upscale → KSampler(2回目) → VAE Decode → Save Image

1回目で512×512生成、Upscaleで1024×1024に拡大、2回目のサンプリングで詳細を追加します。

ワークフロー5: バッチ処理(複数画像生成)

方法1: KSamplerのbatch_size
Empty Latent Imageノードのbatch_sizeを2以上に設定すると、一度に複数生成されます。

方法2: Queue Promptの繰り返し
Queue Promptの右にある数値欄に回数を入力(例: 10)し、Queueボタンを押すと、10回連続で生成されます。

カスタムノードの追加

ComfyUIの強みは、コミュニティが作成したカスタムノードを追加できることです。

カスタムノードのインストール

方法1: ComfyUI Manager(推奨)

ComfyUI Managerを導入すると、GUIでカスタムノードをインストールできます。

cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git

再起動後、右下に「Manager」ボタンが表示されます。

方法2: 手動インストール

cd ComfyUI/custom_nodes
git clone [カスタムノードのリポジトリURL]

再起動すると新しいノードが利用可能になります。

おすすめカスタムノード

ComfyUI-Impact-Pack
– 顔検出・補正
– アップスケール強化
– セグメンテーション

ComfyUI-AnimateDiff
– アニメーション生成
– 動画への拡張

ComfyUI-Advanced-ControlNet
– ControlNetの高度な制御
– 複数ControlNetの適用

rgthree’s ComfyUI Nodes
– UIの改善
– ワークフロー管理機能

ワークフローの保存と共有

保存方法

方法1: JSONとして保存
– 「Save」ボタン → ワークフローがJSONファイルで保存される
ComfyUI/output/に保存される

方法2: 画像にワークフローを埋め込み
生成された画像にはワークフロー情報が自動で埋め込まれます。その画像をComfyUIにドラッグ&ドロップすると、ワークフローが復元されます。

共有方法

ComfyUI Workflows(コミュニティサイト)
OpenArt ComfyUI Workflows
CivitAI ComfyUI Section

ここで他のユーザーが作成したワークフローをダウンロードし、自分の環境で実行できます。

トラブルシューティング

ノードが見つからない

原因: カスタムノードが未インストール

対処法:
1. ComfyUI Managerで該当ノードを検索
2. Installボタンでインストール
3. ComfyUIを再起動

モデルが読み込まれない

チェック項目:
1. モデルファイルが正しいフォルダにあるか
– Checkpoint: models/checkpoints/
– LoRA: models/loras/
– ControlNet: models/controlnet/
2. ファイル形式が.safetensorsまたは.ckpt
3. SDXLモデルをSD1.5用ノードで読んでいないか

画像が生成されない

原因:
– ノードの接続が不完全
– 必須パラメータが未設定

対処法:
1. すべてのノードが正しく接続されているか確認
2. エラーメッセージをコンソール(ターミナル)で確認
3. デフォルトワークフローから始めて、1つずつノードを追加

メモリ不足エラー

対処法:
1. --lowvramオプション付きで起動
bash
python main.py --lowvram

2. バッチサイズを1に
3. 解像度を下げる

ComfyUI vs AUTOMATIC1111: 使い分けのポイント

ComfyUIを使うべき場面

  • 複数の処理を組み合わせたい(LoRA+ControlNet+Upscaleなど)
  • 実験的なワークフローを試したい
  • メモリ効率を重視したい
  • 処理の流れを視覚的に把握したい

AUTOMATIC1111を使うべき場面

  • とにかく素早く画像を生成したい
  • シンプルなUI/UXを好む
  • プロンプト入力に集中したい
  • 拡張機能のエコシステムを活用したい

両方使うハイブリッド運用

多くのユーザーは、用途に応じて使い分けています。
– 日常的な生成: AUTOMATIC1111
– 複雑なワークフロー: ComfyUI

両方インストールし、モデルフォルダをシンボリックリンクで共有することも可能です。


よくある質問

Q. AUTOMATIC1111とComfyUI、どちらを使うべきですか?

初心者ならAUTOMATIC1111、複雑なワークフローを組みたいならComfyUIがおすすめです。AUTOMATIC1111はフォーム入力型で直感的に使えますが、ComfyUIはノードベースで学習コストがやや高い一方、柔軟性とメモリ効率が優れています。多くのユーザーは両方インストールし、日常的な生成はAUTOMATIC1111、複雑な処理はComfyUIと使い分けています。まずはAUTOMATIC1111で慣れてから、必要に応じてComfyUIに移行するのが無難です。

Q. ノードが見つからない・使えないのですが?

カスタムノードが未インストールの可能性があります。ComfyUI Managerを導入し、「Manager」ボタンから該当ノードを検索してインストールしてください。インストール後は必ずComfyUIを再起動します。それでも見つからない場合は、ワークフロー作成者が使用しているカスタムノードのリポジトリURLを確認し、custom_nodes/フォルダに手動でクローンしてください。

Q. ワークフローを保存・共有するには?

ワークフローは2つの方法で保存できます。1つ目は「Save」ボタンでJSONファイルとして保存する方法、2つ目は生成画像に自動埋め込みされるメタデータを利用する方法です。生成された画像をComfyUIにドラッグ&ドロップすると、その画像を作成したワークフローが自動的に復元されます。この仕組みにより、OpenArtやCivitaiなどのコミュニティサイトでワークフローを簡単に共有できます。

Q. メモリ不足でエラーが出ます

ComfyUIを--lowvramオプション付きで起動してください(python main.py --lowvram)。また、バッチサイズを1に設定、生成解像度を512×512程度に下げる、複数ControlNetやLoRAを使用している場合は減らす、といった対策が有効です。VRAM 8GB以下の環境では、SDXL使用時に特にメモリ不足が発生しやすいため、SD1.5モデルの使用も検討してください。


さらに深く学ぶには

【PR】

📚 書籍で体系的に学ぶ

「Stable Diffusion AI画像生成ガイドブック」
– ComfyUIの実践的なワークフロー解説
– ノードベース操作の基礎から応用まで
– 初心者にもわかりやすい構成

楽天で見る | Amazonで見る

🎓 プロから直接学ぶ

独学に限界を感じたら、DMM WEBCAMP がおすすめです。

  • 現役エンジニアのマンツーマン指導
  • 実践的なカリキュラム
  • 画像生成AIのスキルをポートフォリオに

給付金で最大80%オフ(実質18万円〜)DMM WEBCAMP 無料カウンセリングに申し込む


まとめ

ComfyUIは、ノードベースで柔軟な画像生成ワークフローを構築できる強力なツールです。

重要ポイント
– ノードをつなげて処理フローを視覚的に構築
– AUTOMATIC1111より学習コストは高いが、柔軟性は圧倒的
– メモリ効率が良く、複雑な処理にも対応
– カスタムノードで機能拡張が容易
– ワークフローを画像に埋め込んで共有可能

最初はデフォルトワークフローから始め、少しずつノードを追加してカスタマイズしていくと良いでしょう。ComfyUIの自由度の高さに慣れると、画像生成の可能性が大きく広がります。

特に、複数のLoRAやControlNetを組み合わせた高度な生成、アニメーション生成、大量バッチ処理など、AUTOMATIC1111では実現困難だったワークフローが実現できます。


おすすめ書籍

画像生成AIの基礎から応用まで体系的に学びたい方におすすめの一冊です。

『画像生成AI Stable Diffusion スタートガイド』 AICU media(2,640円)

Stable Diffusionの導入から実践的なテクニックまで、初心者でもわかりやすく解説されています。


関連記事
【2026年最新】画像生成AI徹底比較|Midjourney・GPT-4o・Stable Diffusion・にじジャーニー
【超初心者向け】Stable Diffusionのインストール方法|PC環境構築から使い方まで
Stable Diffusion XL(SDXL)完全ガイド|導入から実践まで
ControlNet完全ガイド|Stable Diffusionでポーズ・構図を完全制御
LoRAの使い方完全ガイド

コメント