ComfyUI  >  Workflows  >  UNO ByteDance | Konsistente Subjekt- & Objektgenerierung

UNO ByteDance | Konsistente Subjekt- & Objektgenerierung

Der UNO-Workflow für ComfyUI bringt ByteDance's fortschrittliche Bildgenerierungstechnologie zu RunComfy. Dieses leistungsstarke Modell zeichnet sich durch die Erstellung hochkonsistenter Bilder aus, wenn Referenzobjekte bereitgestellt werden. Ob Sie eine Einzelobjektgenerierung (eine Figur in verschiedenen Szenen) oder Subjekt-Objekt-Kompositionen (Kombinierung eines Subjekts mit einem bestimmten Objekt in einem Bild) benötigen, UNO ByteDance liefert außergewöhnliche Treue und Qualität. Das Modell arbeitet effektiv, selbst auf kleineren Cloud-Maschinen, und macht die UNO-Bildanpassung von ByteDance für jedermann zugänglich. Perfekt für Produktvisualisierungen, Charakterillustrationen, kreative Kompositionen und vieles mehr.

ComfyUI UNO ByteDance Subject-Object Generation Arbeitsablauf

UNO ByteDance for ComfyUI | Consistent Subject Generation
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

ComfyUI UNO ByteDance Subject-Object Generation Beispiele

uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_1.webp
uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_2.webp
uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_3.webp
uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_4.webp

ComfyUI UNO ByteDance Subject-Object Generation Beschreibung

ComfyUI UNO Beschreibung

1. Was ist ByteDance's ComfyUI UNO?

Der ComfyUI UNO-Workflow integriert ByteDance's Universal aNd cOntrollable (UNO) Modell in die ComfyUI-Umgebung. Entwickelt vom Intelligent Creation Team von ByteDance, stellt UNO einen bedeutenden Fortschritt in der subjektgesteuerten Bildgenerierungstechnologie dar, basierend auf dem innovativen "Less-to-More"-Generalizationsparadigma. UNO ermöglicht flexible und hochpräzise Bildgenerierung, während es Identitätsmerkmale von Referenzobjekten mit bemerkenswerter Konsistenz über verschiedene Kontexte und Szenarien hinweg bewahrt.

2. Vorteile von ByteDance's ComfyUI UNO:

  • Überlegene Subjektkonsistenz: UNO bewahrt außergewöhnliche Subjektähnlichkeit über unterschiedliche Kontexte hinweg.
  • Subjekt-Objekt-Kontrolle: Im Gegensatz zu vielen Alternativen glänzt UNO darin, sowohl Subjektreferenzen als auch Objektreferenzen gleichzeitig ohne Identitätsverwirrung zu handhaben.
  • Universelle Kompatibilität: UNO arbeitet mit verschiedenen Arten von Subjekten - Menschen, Objekte, Spielzeuge, Logos und mehr.
  • Ressourceneffizienz: UNO liefert Ergebnisse in professioneller Qualität, selbst mit begrenzten VRAM-Ressourcen (funktioniert gut mit 24GB).
  • Flexible Implementierung: UNO umfasst Workflows für sowohl Einzelobjekt- als auch Subjekt-Objekt-Generierung.

3. Nutzung von ByteDance's ComfyUI UNO

3.1 Workflow-Einrichtung

Der UNO-Workflow hat zwei Hauptkonfigurationen:

Obergruppe - Subjekt-Objekt-Generierung:

  • Diese Konfiguration ermöglicht es Ihnen, ein Referenzsubjektbild und ein Referenzobjektbild einzugeben, die in einer generierten Szene gemäß Ihrem Textprompt kombiniert werden.

Untergruppe - Einzelobjekt-Generierung:

  • Diese Konfiguration verwendet ein einzelnes Referenzbild und generiert neue Bilder dieses Subjekts in verschiedenen Kontexten.

3.2 Generierungsprozess mit ByteDance's UNO

Grundlegende Einrichtung:

  1. Laden von Referenzbildern:
    • Für den Subjekt-Objekt-Workflow (Obergruppe): Laden Sie ein Subjektreferenzbild und ein Objektreferenzbild hoch
    • Für den Einzelobjekt-Workflow (Untergruppe): Laden Sie ein Referenzbild hoch
  2. Text-Prompt für ByteDance's UNO festlegen:
    • Schreiben Sie einen beschreibenden Prompt für Ihre gewünschte Szene, einschließlich wie das Referenzsubjekt/-objekt erscheinen soll
  3. Parameter von ByteDance's UNO anpassen:
    • Width/Height: Bestimmen Sie die Ausgabeauflösung (empfohlen 768×1024 oder 1024×1024)
    • Guidance: Kontrolliert, wie genau ByteDance's UNO der Textaufforderung folgt (3.5-4.0 empfohlen)
    • Num_steps: Höhere Werte (20+) erzeugen konsistentere Ergebnisse mit ByteDance's UNO, insbesondere für menschliche Gesichter
    • Seed: Setzen Sie einen spezifischen Seed für die Reproduzierbarkeit oder randomisieren Sie für Vielfalt in ByteDance's UNO-Ausgaben
  4. Bild mit ByteDance's UNO generieren:
    • Klicken Sie "Queue Prompt", um den ByteDance UNO-Workflow auszuführen
    • Überprüfen Sie das Ergebnis im "Save Image"-Knoten

3.3 Parameterreferenz für ByteDance's UNO

UNO Loadmodel Node:

  • model_type: Bestimmt, welche ByteDance UNO Modellvariante verwendet wird
    • flux-dev: Standard ByteDance UNO Modell mit guter Balance zwischen Qualität und Leistung
    • flux-schnell: Schnelleres ByteDance UNO Modellvariante mit etwas geringerer Qualität

3.4 Tipps für beste Ergebnisse mit ByteDance's UNO

Subjektauswahl für UNO:

  • Wählen Sie klare, gut beleuchtete Referenzbilder, bei denen das Subjekt prominent ist
  • Für Gesichter/Menschen funktionieren frontale Bilder mit neutralen Ausdrücken am besten mit ByteDance's UNO
  • Für Objekte sind klare Bilder mit minimaler Hintergrundablenkung ideal für die Verarbeitung durch ByteDance's UNO

Prompt Engineering für UNO:

  • Seien Sie spezifisch in Bezug auf Subjektbeschreibungen, die zu Ihren Referenzbildern passen
  • Beschreiben Sie die gewünschte Szene, Beleuchtung und Komposition, die ByteDance's UNO generieren soll
  • Beziehen Sie sich auf die spezifischen Subjekte (z.B. "ein junger Mann", "ein Vintage-Fahrrad")
  • Halten Sie Prompts prägnant, aber detailliert für optimale ByteDance UNO-Ergebnisse

4. Technische Informationen über ByteDance's UNO

Die ByteDance UNO-Technologie basiert auf FLUX-Modellen und nutzt die DiT (Diffusion Transformer) Architektur mit mehreren entscheidenden Verbesserungen:

  • Universal Rotary Position Embedding (UnoPE): Ein spezieller Mechanismus in ByteDance's UNO, der dem Modell hilft, zwischen Referenzsubjekten und -objekten zu unterscheiden und die Attributverwirrung erheblich zu reduzieren.
  • Progressive Cross-Modal Alignment: Trainingsmethodik, die es ByteDance's UNO ermöglicht, zunehmend komplexe Multi-Bedingungssteuerungen zu handhaben.
  • Universelle Anpassung: ByteDance's UNO ist in der Lage, verschiedene Subjekttypen ohne spezialisiertes Training zu handhaben.

5. Danksagungen

Dieser Workflow wird von UNO angetrieben, entwickelt vom Intelligent Creation Team bei ByteDance (Shaojin Wu, Mengqi Huang, Wenxu Wu, Yufeng Cheng, Fei Ding, und Qian He). Die ComfyUI-Integration von ByteDance's UNO wird von Community-Beiträgen bereitgestellt, die ByteDance's bahnbrechende Forschung in einen zugänglichen Workflow adaptieren.

Für weitere Informationen über ByteDance's UNO, besuchen Sie das .

Möchtest du mehr ComfyUI Workflows?

RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.