UNO | 一貫したサブジェクトとオブジェクトの生成
2025年6月16日更新: ComfyUIバージョンがv0.3.40に更新され、安定性と互換性が向上しました。ComfyUIのUNOワークフローは、RunComfyに高度な画像生成技術をもたらします。この強力なモデルは、参照サブジェクトが提供されたときに非常に一貫した画像を作成することに優れています。シングルサブジェクト生成(異なるシーンでのキャラクター)やサブジェクトオブジェクト構成(1つの画像で特定のオブジェクトとサブジェクトを組み合わせる)のどちらが必要であっても、ComfyUI UNOは優れた忠実度と品質を提供します。このモデルは、小さなクラウドマシンでも効果的に動作し、ComfyUI UNOの画像カスタマイズを誰にでも利用可能にします。製品の視覚化、キャラクターイラスト、クリエイティブな構成、その他多くに最適です。ComfyUI UNO Subject-Object Generation ワークフロー
ComfyUI UNO Subject-Object Generation 例




ComfyUI UNO Subject-Object Generation 説明
ComfyUI UNO 説明
1. ComfyUI UNOとは?
ComfyUI UNOワークフローは、ByteDanceのUniversal aNd cOntrollable (UNO)モデルをComfyUI環境に統合します。ByteDanceのIntelligent Creation Teamが開発したUNOは、革新的な"Less-to-More"一般化パラダイムに基づくサブジェクト駆動の画像生成技術における重要な進歩を表しています。ComfyUI UNOワークフローは、様々なコンテキストとシナリオで優れた一貫性を持って参照サブジェクトのアイデンティティ特徴を保持しながら、柔軟で高忠実度の画像生成を可能にします。
2. ComfyUI UNOの利点:
- 優れたサブジェクト一貫性: ComfyUI UNOは、異なるコンテキストで優れたサブジェクトの類似性を維持します。
- サブジェクトオブジェクト制御: 多くの代替品とは異なり、ComfyUI UNOはサブジェクト参照とオブジェクト参照の両方を同時に扱うことに優れ、アイデンティティの混乱を防ぎます。
- ユニバーサル互換性: ComfyUI UNOは、人、物、玩具、ロゴなど多様なタイプのサブジェクトと互換性があります。
- リソース効率: ComfyUI UNOは、限られたVRAMリソース(24GBで動作)でもプロフェッショナル品質の結果を提供します。
- 柔軟な実装: ComfyUI UNOは、シングルサブジェクトとサブジェクトオブジェクト生成の両方のワークフローを含みます。
3. ComfyUI UNOの使用方法
3.1 ワークフローセットアップ
ComfyUI UNOワークフローには主に2つの構成があります:
上部グループ - サブジェクトオブジェクト生成:
- この構成では、参照サブジェクト画像と参照オブジェクト画像を入力し、テキストプロンプトに従って生成されたシーンに組み合わせます。
下部グループ - シングルサブジェクト生成:
- この構成では、単一の参照画像を使用し、そのサブジェクトを異なるコンテキストで新しい画像として生成します。
3.2 ComfyUI UNOによる生成プロセス
基本設定:
- 参照画像を読み込む:
- サブジェクトオブジェクトワークフロー(上部グループ): 1つのサブジェクト参照画像と1つのオブジェクト参照画像をアップロード
- シングルサブジェクトワークフロー(下部グループ): 1つの参照画像をアップロード
- ComfyUI UNO用テキストプロンプトを設定:
- 参照サブジェクト/オブジェクトがどのように表示されるべきかを含む、望ましいシーンの説明プロンプトを書く
- ComfyUI UNOパラメータを調整:
Width/Height
: 出力解像度を決定する(推奨768×1024または1024×1024)Guidance
: ComfyUI UNO生成がテキストプロンプトにどれだけ従うかを制御する(推奨3.5-4.0)Num_steps
: 高い値(20以上)は、特に人間の顔に対してComfyUI UNOでより一貫した結果を生み出すSeed
: 再現性のために特定のシードを設定するか、ComfyUI UNO出力にバリエーションをもたらすためにランダム化
- ComfyUI UNOで画像を生成:
- "Queue Prompt"をクリックしてComfyUI UNOワークフローを実行する
- "Save Image"ノードで結果を確認する
3.3 ComfyUI UNOのパラメータリファレンス
UNO Loadmodelノード:
model_type
: 使用するComfyUI UNOモデルのバリアントを決定するflux-dev
: 品質とパフォーマンスのバランスが良い標準のComfyUI UNOモデルflux-schnell
: やや低品質で高速なComfyUI UNOモデルバリアント
3.4 ComfyUI UNOでの最良の結果を得るためのヒント
ComfyUI UNOのためのサブジェクト選択:
- サブジェクトが目立つ、明るく照らされたクリアな参照画像を選ぶ
- 顔/人の場合、正面を向いた中立的な表情の画像がComfyUI UNOで最も効果的
- オブジェクトの場合、背景の干渉が最小限のクリアな画像がComfyUI UNO処理に理想的
ComfyUI UNOのためのプロンプトエンジニアリング:
- 参照画像に一致するサブジェクトの説明を具体的にする
- ComfyUI UNOが生成するための望ましいシーン、照明、構成を説明する
- 特定のサブジェクト(例: "若い男性", "ビンテージ自転車")への参照を含める
- ComfyUI UNOの最適な結果のためにプロンプトを簡潔かつ詳細に保つ
4. ComfyUI UNOに関する技術情報
ComfyUI UNO技術はFLUXモデルに基づいており、いくつかの重要な強化を伴うDiT (Diffusion Transformer)アーキテクチャを活用しています:
- Universal Rotary Position Embedding (UnoPE): ComfyUI UNOにおける特別なメカニズムで、参照サブジェクトとオブジェクトを区別し、属性の混乱を大幅に減少させます。
- Progressive Cross-Modal Alignment: ComfyUI UNOがますます複雑なマルチコンディション制御を扱うことを可能にするトレーニング手法。
- Universal Customization: ComfyUI UNOは、特別なトレーニングなしで多様なサブジェクトタイプを処理できます。
5. 謝辞
このComfyUIワークフローは、ByteDanceのIntelligent Creation Team(Shaojin Wu、Mengqi Huang、Wenxu Wu、Yufeng Cheng、Fei Ding、Qian He)によって開発されたUNOによって実現されています。ByteDanceのUNOのComfyUI統合は、画期的な研究をアクセス可能なワークフローに適応させたコミュニティ貢献者によって提供されています。
UNOに関する追加情報は、をご覧ください。