logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
Loading...
ComfyUI>ワークフロー>ByteDance USO | 統合スタイル&サブジェクトジェネレーター

ByteDance USO | 統合スタイル&サブジェクトジェネレーター

Workflow Name: RunComfy/ByteDance-USO
Workflow ID: 0000...1286
このワークフローを使用すると、サブジェクトとスタイルの制御を統合したプロセスでシームレスなクリエイティブ生成を実現できます。キャラクターを異なるシーンに配置しながら、そのアイデンティティを高精度で保持することができます。また、参照画像から多様な芸術スタイルを適用して、作品にユニークな視覚効果をもたらすことも可能です。このシステムは、サブジェクト駆動とスタイル駆動のガイダンスを統合したモードを提供し、出力精度を重視するクリエイターにとってシャープで一貫性のある柔軟な結果を提供します。これにより、デザイナー、デジタルアーティスト、コンテンツクリエイターが視覚的な制御を効率的に行うことができるため、プロフェッショナルなレベルの画像を複雑な設定なしで生成することができます。

ComfyUI ByteDance USO Workflow

ByteDance USO in ComfyUI | Unified Style and Subject Workflow
Want to run this workflow?
  • Fully operational workflows
  • No missing nodes or models
  • No manual setups required
  • Features stunning visuals

ComfyUI ByteDance USO Examples

bytedance-uso-in-comfyui-unified-style-and-subject-workflow-1286-example_01.webp
bytedance-uso-in-comfyui-unified-style-and-subject-workflow-1286-example_02.webp
bytedance-uso-in-comfyui-unified-style-and-subject-workflow-1286-example_03.webp
bytedance-uso-in-comfyui-unified-style-and-subject-workflow-1286-example_04.webp

ByteDance USO: ComfyUIのための統合スタイルとサブジェクト生成ワークフロー

このワークフローは、ComfyUIにByteDance USOをもたらし、アイデンティティを忠実に再現するキャラクターと正確なスタイル転送を一つの場所で実現したいクリエイターのために設計されています。FLUX.1‑devに基づいており、サブジェクト駆動、スタイル駆動、および統合生成をサポートするため、キャラクターを新しいシーンに配置しながら類似性を保持したり、参照画像からスタイルを適用したり、両方を同時に行うことができます。

強力なサブジェクトの一貫性と柔軟で高品質なスタイル制御が必要な場合は、ByteDance USOを使用してください。このグラフには、アイデンティティ画像に条件付けするサブジェクト+スタイルパスと、スタイル参照の有無にかかわらず使用できるプロンプト駆動パスの2つの補完的なブランチが含まれています。両方のパスは画像を独立して保存するため、結果をすぐに比較できます。

Comfyui ByteDance USOワークフローの主要なモデル

  • FLUX.1‑dev。生成品質と速度を支える基本的な拡散トランスフォーマーです。このワークフローでByteDance USOが使用するサンプリングバックボーンを提供します。Model card
  • ByteDance USO DiT LoRA v1。FLUX.1‑devに統合スタイルとサブジェクト機能を注入する低ランクアダプターです。アイデンティティ保存とスタイルガイダンスを統合セットアップで可能にします。USO 1.0リパックで提供されます。Repository
  • USO FLUX.1 Projector v1。スタイルとサブジェクトのキューがモデルを効果的に導くようにCLIP‑Visionの機能を生成バックボーンに接続するプロジェクターパッチです。USOリパックに含まれています。Repository
  • SigCLIP Vision (patch14, 384)。スタイルとサブジェクトの参照画像から埋め込みを抽出するビジョンエンコーダーで、USOモジュールが視覚的なガイダンスに使用します。Repository

Comfyui ByteDance USOワークフローの使用方法

グラフには2つのブランチがあり、独立して実行することができます。上部のブランチはアイデンティティ画像とスタイル参照を使用し、下部のブランチはプロンプト駆動で、スタイル参照を含むこともできます。どちらのブランチからでも生成できます。

ステップ1 – モデルのロード

このステップでは、FLUX.1‑dev、ByteDance USO LoRA、USOプロジェクター、およびSigCLIPビジョンエンコーダーを初期化します。統合されたスタイルとサブジェクトのガイダンスのための基本モデルを準備します。両方のブランチが同じセットをロードするため、サブジェクト+スタイルまたはプロンプトワークフローをモデルを再設定せずに実行できます。ロードが完了すると、モデルストリームはUSOの参照プロセッサーの準備が整います。

ステップ2 – サブジェクト/アイデンティティ画像

キャラクターのクリーンなアイデンティティ画像を提供します。ワークフローはそれを適切な作業サイズにスケールし、重要な顔やキャラクターの特徴を保持する潜在にエンコードします。この潜在はプロンプトと融合し、ByteDance USOがアイデンティティを保持しながら新しいシーンにサブジェクトを配置できるようにします。スタイルのみまたはテキストのみの生成を希望する場合は、このステップを省略してください。

ステップ3 – スタイル参照

パレット、素材、筆致をガイドするために1枚または2枚のスタイル画像を追加します。各画像はビジョンモデルでエンコードされ、USOのスタイル参照ノードを通じて適用され、スタイルの影響をロードされたモデルに重ねます。2つの参照を使用する場合、順序が重要です。2番目の参照は最初の後に適用されます。このグループをバイパスして純粋なサブジェクト駆動またはテキストのみのパスを実行することができます。

プロンプト

構成、ムード、および詳細のための意図駆動プロンプトを書きます。サブジェクト+スタイルブランチでは、プロンプトはアイデンティティ潜在とUSOのガイダンスと組み合わされ、テキスト、サブジェクト、スタイルが同じ方向に引っ張ります。プロンプト駆動ブランチでは、テキストのみが(オプションでスタイル参照とともに)画像を導きます。プロンプトは具体的に保ち、選択したスタイルと矛盾しないようにしてください。

画像サイズ

生成のためのターゲット解像度を選択します。選択したサイズは、特にポートレート対全身ショットの場合の構成の締まりと詳細の密度に影響します。VRAMが限られている場合は、最初に小さく開始し、後でスケールアップしてください。両方のブランチには、アスペクトと忠実度をユースケースに合わせて調整できる単純な画像サイズノードが公開されています。

サンプリングと出力

各ブランチは標準サンプラーでサンプリングし、RGBにデコードして独自の出力に保存します。通常、1回のランで2つの画像を取得します:スタイルされたサブジェクト結果とプロンプト駆動の結果。プロンプトを調整したり、参照を入れ替えたりして反復し、代替案を探るか、再現性を持たせるためにシードを固定します。

Comfyui ByteDance USOワークフローの主要なノード

USOStyleReference (#56)

USOプロジェクターとCLIP‑Vision機能を使用して、現在のモデルストリームにスタイル画像を適用します。強力で一貫性のある外観のために1つの参照を使用するか、ニュアンスのあるブレンドのために2つをチェーンします。スタイルがあまりにも支配的な場合は、単一のクリーンな参照を試すか、その内容を簡素化してください。

ReferenceLatent (#44)

エンコードされたサブジェクト潜在を条件付けパスに注入し、ByteDance USOがアイデンティティを保持します。キャラクターの顔や特徴を明確に示す無雑音のアイデンティティ写真と最もよく機能します。アイデンティティが滑る場合は、より完全な参照を供給するか、矛盾するスタイルキューを減らしてください。

FluxKontextMultiReferenceLatentMethod (#41)

FLUXコンテキストパスウェイ内で複数の参照信号を組み合わせます。ここでは、サブジェクトとプロンプトのコンテキストがサンプリング前にバランスされます。結果が過度に制約されていると感じた場合は、参照を緩め、漂流する場合はサブジェクトイメージを強化するか、プロンプトを簡素化してください。

FluxGuidance (#35)

参照信号に対するテキストガイダンスの強さを制御します。低い値ではサブジェクト/スタイルがリードし、高い値ではプロンプトがより強く適用されます。プロンプトが適合していないと感じた場合はガイダンスを上げ、スタイル/サブジェクトが上書きされる場合はガイダンスを下げます。

ImageScaleToMaxDimension (#109)

安定した特徴抽出のためにアイデンティティ画像を準備します。小さい最大サイズはより広い構成を優先し、大きいサイズは参照がタイトなポートレートで、よりシャープなアイデンティティキューが必要な場合に役立ちます。サブジェクト参照が全身かヘッドショットかに基づいて調整してください。

EasyCache (#95)

変更が小さい場合に中間状態を再利用して推論を高速化します。プロンプトの微調整や迅速な反復に最適ですが、微細なディテールが若干減少する可能性があります。最終的で最高品質のレンダリングには無効にしてください。

KSampler (#31)

拡散ステップを実行し、シードとサンプラーの選択によって確率性を制御します。詳細を増やすためにステップを増やしたり、参照を変更しながらルックを再現するためにシードを固定したりします。テクスチャがノイズのように見える場合は、異なるサンプラーを試すか、ステップを減らしてスタイルガイダンスを強化してください。

オプションのエクストラ

  • ByteDance USOのアイデンティティ作業には、中立で均一に照らされたサブジェクト画像を優先し、スタイルキューと競合する重いメイクや極端な角度を避けてください。
  • 2つのスタイル参照をスタックする場合は、より広い美学を最初に配置し、テクスチャ/詳細の参照を2番目に配置してアイデンティティを圧倒せずに洗練してください。
  • ネガティブプロンプティングを最小限に抑えてください。グラフは意図的に中立的なネガティブパスを使用しているため、USOの学習された優先事項と参照がきれいに整合します。
  • 低解像度またはキャッシュをオンにして迅速に反復し、お気に入りのシードを最終的なものにするためにキャッシュをオフにしてアップスケールします。
  • ByteDance USOが各信号をどのようにバランスするかを理解するために、サブジェクトのみ、スタイルのみ、および統合モードを比較する際には再現可能なシードを使用してください。

謝辞

このワークフローは、以下の作品とリソースを実装および構築しています。ByteDanceによるUSOモデルとComfyUIチームによるByteDance USO ComfyUI Native Workflowチュートリアルの貢献とメンテナンスに心から感謝します。公式な詳細については、以下にリンクされた元のドキュメントとリポジトリを参照してください。

リソース

  • ByteDance/USO
    • GitHub: bytedance/USO
    • Hugging Face: bytedance-research/USO
    • arXiv: 2508.18966
    • ドキュメント / リリースノート: ByteDance USO Documentation

注: 参照されたモデル、データセット、およびコードの使用は、それぞれの著者およびメンテナーによって提供されたライセンスおよび条件に従います。

Want More ComfyUI Workflows?

Flux Consistent Characters | Input Image

Flux Consistent Characters | Input Image

一貫性のあるキャラクターを作成し、画像を使用してそれらが均一に見えるようにします。

DreamO | 統合マルチタスク画像カスタマイズフレームワーク

1〜3枚の参照からアイデンティティ、スタイル、トライオン、マルチコンディション画像生成を実行

Flux Kontext 360 Degree LoRA

深度と空間制御を備えた没入型の360スタイル画像を生成します。

SUPIR + Foolhardy Remacri | 8K画像/動画アップスケーラー

SUPIR + Foolhardy Remacri | 8K画像/動画アップスケーラー

SUPIRと4x Foolhardy Remacriモデルを使用して画像を8Kにアップスケールします。

HiDream E1.1 | AI 画像編集

HiDream E1.1 モデルを使用して自然言語で画像を編集

IPAdapter Plus(V2)| 単一画像スタイル転送

IPAdapter Plus(V2)| 単一画像スタイル転送

IPAdapter PlusとControlNetを使用して、単一の参照画像で正確なスタイル転送を行います。

Stable Fast 3D | ComfyUI 3D Pack

Stable Fast 3DとComfyUI 3D Packで魅力的な3Dコンテンツを作成します。

Linear Mask Dilation | 驚くべきアニメーション

被写体を変換し、異なるシーンをシームレスに移動させましょう。

フォローする
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
サポート
  • Discord
  • メール
  • システムステータス
  • アフィリエイト
リソース
  • 無料のComfyUIオンライン
  • ComfyUIガイド
  • RunComfy API
  • ComfyUIチュートリアル
  • ComfyUIノード
  • 詳細を見る
法的情報
  • 利用規約
  • プライバシーポリシー
  • Cookieポリシー
RunComfy
著作権 2025 RunComfy. All Rights Reserved.

RunComfyは最高の ComfyUI プラットフォームです。次のものを提供しています: ComfyUIオンライン 環境とサービス、および ComfyUIワークフロー 魅力的なビジュアルが特徴です。 RunComfyはまた提供します AI Playground, アーティストが最新のAIツールを活用して素晴らしいアートを作成できるようにする。