ComfyUI  >  Workflows  >  UNO | Konsistente Subjekt- & Objektgenerierung

UNO | Konsistente Subjekt- & Objektgenerierung

Aktualisiert am 16.06.2025: ComfyUI-Version auf v0.3.40 für verbesserte Stabilität und Kompatibilität aktualisiert. Der UNO-Workflow für ComfyUI bringt die fortschrittliche Bildgenerierungstechnologie zu RunComfy. Dieses leistungsstarke Modell zeichnet sich durch die Erstellung hochkonsistenter Bilder aus, wenn Referenzsubjekte bereitgestellt werden. Egal, ob Sie eine Einzel-Subjekt-Generierung (ein Charakter in verschiedenen Szenen) oder Subjekt-Objekt-Kompositionen (Kombinieren eines Subjekts mit einem bestimmten Objekt in einem Bild) benötigen, ComfyUI UNO liefert außergewöhnliche Treue und Qualität. Das Modell arbeitet effektiv auch auf kleineren Cloud-Maschinen, wodurch die Bildanpassung mit ComfyUI UNO für jedermann zugänglich wird. Perfekt für Produktvisualisierungen, Charakterillustrationen, kreative Kompositionen und vieles mehr.

ComfyUI UNO Subject-Object Generation Arbeitsablauf

UNO for ComfyUI | Consistent Subject Generation
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

ComfyUI UNO Subject-Object Generation Beispiele

uno-for-comfyui-consistent-subject-generation-1218-example_1.webp
uno-for-comfyui-consistent-subject-generation-1218-example_2.webp
uno-for-comfyui-consistent-subject-generation-1218-example_3.webp
uno-for-comfyui-consistent-subject-generation-1218-example_4.webp

ComfyUI UNO Subject-Object Generation Beschreibung

ComfyUI UNO Beschreibung

1. Was ist ComfyUI UNO?

Der ComfyUI UNO-Workflow integriert ByteDance's Universal aNd cOntrollable (UNO) Modell in die ComfyUI-Umgebung. Entwickelt von ByteDance's Intelligent Creation Team, stellt UNO einen bedeutenden Fortschritt in der subjektgesteuerten Bildgenerierungstechnologie basierend auf dem innovativen "Less-to-More"-Generalierungsparadigma dar. Der ComfyUI UNO-Workflow ermöglicht flexible und hochpräzise Bildgenerierung und bewahrt die Identitätsmerkmale der Referenzsubjekte mit bemerkenswerter Konsistenz über verschiedene Kontexte und Szenarien hinweg.

2. Vorteile von ComfyUI UNO:

  • Überlegene Subjektkonsistenz: ComfyUI UNO bewahrt außergewöhnliche Subjektsimilarität in unterschiedlichen Kontexten.
  • Subjekt-Objekt-Kontrolle: Im Gegensatz zu vielen Alternativen beherrscht ComfyUI UNO sowohl Subjekt- als auch Objektreferenzen gleichzeitig ohne Identitätsverwirrung.
  • Universelle Kompatibilität: ComfyUI UNO funktioniert mit verschiedenen Typen von Subjekten - Menschen, Objekte, Spielzeuge, Logos und mehr.
  • Ressourceneffizienz: ComfyUI UNO liefert professionelle Ergebnisse selbst mit begrenzten VRAM-Ressourcen (funktioniert gut mit 24GB).
  • Flexible Implementierung: ComfyUI UNO umfasst Workflows für sowohl Einzel-Subjekt- als auch Subjekt-Objekt-Generierung.

3. Verwendung von ComfyUI UNO

3.1 Workflow-Einrichtung

Der ComfyUI UNO-Workflow hat zwei Hauptkonfigurationen:

Obere Gruppe - Subjekt-Objekt-Generierung:

  • Diese Konfiguration ermöglicht es Ihnen, ein Referenzsubjektbild und ein Referenzobjektbild einzugeben, die in einer generierten Szene gemäß Ihrem Textprompt kombiniert werden.

Untere Gruppe - Einzel-Subjekt-Generierung:

  • Diese Konfiguration verwendet ein einzelnes Referenzbild und generiert neue Bilder dieses Subjekts in verschiedenen Kontexten.

3.2 Generierungsprozess mit ComfyUI UNO

Grundlegende Einrichtung:

  1. Laden Sie Referenzbilder:
    • Für den Subjekt-Objekt-Workflow (obere Gruppe): Laden Sie ein Subjektreferenzbild und ein Objektreferenzbild hoch
    • Für den Einzel-Subjekt-Workflow (untere Gruppe): Laden Sie ein Referenzbild hoch
  2. Legen Sie den Textprompt für ComfyUI UNO fest:
    • Schreiben Sie einen beschreibenden Prompt für Ihre gewünschte Szene, einschließlich wie das Referenzsubjekt/-objekt erscheinen soll
  3. Passen Sie die ComfyUI UNO-Parameter an:
    • Width/Height: Bestimmen Sie die Ausgabeauflösung (empfohlen 768×1024 oder 1024×1024)
    • Guidance: Steuert, wie eng die ComfyUI UNO-Generierung Ihrem Textprompt folgt (3.5-4.0 empfohlen)
    • Num_steps: Höhere Werte (20+) erzeugen konsistentere Ergebnisse mit ComfyUI UNO, insbesondere bei menschlichen Gesichtern
    • Seed: Legen Sie einen bestimmten Seed für die Reproduzierbarkeit fest oder randomisieren Sie für Vielfalt in ComfyUI UNO-Ausgaben
  4. Bild mit ComfyUI UNO generieren:
    • Klicken Sie auf "Queue Prompt", um den ComfyUI UNO-Workflow auszuführen
    • Überprüfen Sie das Ergebnis im "Save Image"-Knoten

3.3 Parameterreferenz für ComfyUI UNO

UNO Loadmodel Node:

  • model_type: Bestimmt, welche ComfyUI UNO-Modellvariante verwendet wird
    • flux-dev: Standard ComfyUI UNO-Modell mit gutem Gleichgewicht zwischen Qualität und Leistung
    • flux-schnell: Schnelleres ComfyUI UNO-Modell mit etwas niedrigerer Qualität

3.4 Tipps für beste Ergebnisse mit ComfyUI UNO

Subjektauswahl für ComfyUI UNO:

  • Wählen Sie klare, gut beleuchtete Referenzbilder, auf denen das Subjekt prominent ist
  • Für Gesichter/Menschen funktionieren frontale Bilder mit neutralen Ausdrücken am besten mit ComfyUI UNO
  • Für Objekte sind klare Bilder mit minimalen Hintergrundstörungen ideal für die Verarbeitung mit ComfyUI UNO

Prompt-Engineering für ComfyUI UNO:

  • Seien Sie spezifisch bei Subjektbeschreibungen, die zu Ihren Referenzbildern passen
  • Beschreiben Sie die gewünschte Szene, Beleuchtung und Komposition, die ComfyUI UNO generieren soll
  • Beziehen Sie sich auf die spezifischen Subjekte (z.B. "ein junger Mann", "ein Vintage-Fahrrad")
  • Halten Sie Prompts prägnant, aber detailliert für optimale ComfyUI UNO-Ergebnisse

4. Technische Informationen über ComfyUI UNO

Die ComfyUI UNO-Technologie basiert auf FLUX-Modellen und nutzt die DiT (Diffusion Transformer)-Architektur mit mehreren wesentlichen Verbesserungen:

  • Universal Rotary Position Embedding (UnoPE): Ein spezialisiertes Mechanismus in ComfyUI UNO, das dem Modell hilft, zwischen Referenzsubjekten und -objekten zu unterscheiden und die Attributverwirrung erheblich zu reduzieren.
  • Progressive Cross-Modal Alignment: Trainingsmethode, die es ComfyUI UNO ermöglicht, zunehmend komplexere Multi-Bedingungs-Kontrollen zu handhaben.
  • Universelle Anpassung: ComfyUI UNO ist in der Lage, mit verschiedenen Subjekttypen umzugehen, ohne spezielles Training.

5. Danksagungen

Dieser ComfyUI-Workflow wird von UNO angetrieben, entwickelt vom Intelligent Creation Team bei ByteDance (Shaojin Wu, Mengqi Huang, Wenxu Wu, Yufeng Cheng, Fei Ding und Qian He). Die ComfyUI-Integration von ByteDance's UNO wird von Community-Mitwirkenden bereitgestellt, die die bahnbrechende Forschung in einen zugänglichen Workflow umsetzen.

Für weitere Informationen über UNO besuchen Sie das .

Möchtest du mehr ComfyUI Workflows?