UNO | Konsistente Subjekt- & Objektgenerierung
Aktualisiert am 16.06.2025: ComfyUI-Version auf v0.3.40 für verbesserte Stabilität und Kompatibilität aktualisiert. Der UNO-Workflow für ComfyUI bringt die fortschrittliche Bildgenerierungstechnologie zu RunComfy. Dieses leistungsstarke Modell zeichnet sich durch die Erstellung hochkonsistenter Bilder aus, wenn Referenzsubjekte bereitgestellt werden. Egal, ob Sie eine Einzel-Subjekt-Generierung (ein Charakter in verschiedenen Szenen) oder Subjekt-Objekt-Kompositionen (Kombinieren eines Subjekts mit einem bestimmten Objekt in einem Bild) benötigen, ComfyUI UNO liefert außergewöhnliche Treue und Qualität. Das Modell arbeitet effektiv auch auf kleineren Cloud-Maschinen, wodurch die Bildanpassung mit ComfyUI UNO für jedermann zugänglich wird. Perfekt für Produktvisualisierungen, Charakterillustrationen, kreative Kompositionen und vieles mehr.ComfyUI UNO Subject-Object Generation Arbeitsablauf

- Voll funktionsfähige Workflows
- Keine fehlenden Nodes oder Modelle
- Keine manuelle Einrichtung erforderlich
- Beeindruckende Visualisierungen
ComfyUI UNO Subject-Object Generation Beispiele




ComfyUI UNO Subject-Object Generation Beschreibung
ComfyUI UNO Beschreibung
1. Was ist ComfyUI UNO?
Der ComfyUI UNO-Workflow integriert ByteDance's Universal aNd cOntrollable (UNO) Modell in die ComfyUI-Umgebung. Entwickelt von ByteDance's Intelligent Creation Team, stellt UNO einen bedeutenden Fortschritt in der subjektgesteuerten Bildgenerierungstechnologie basierend auf dem innovativen "Less-to-More"-Generalierungsparadigma dar. Der ComfyUI UNO-Workflow ermöglicht flexible und hochpräzise Bildgenerierung und bewahrt die Identitätsmerkmale der Referenzsubjekte mit bemerkenswerter Konsistenz über verschiedene Kontexte und Szenarien hinweg.
2. Vorteile von ComfyUI UNO:
- Überlegene Subjektkonsistenz: ComfyUI UNO bewahrt außergewöhnliche Subjektsimilarität in unterschiedlichen Kontexten.
- Subjekt-Objekt-Kontrolle: Im Gegensatz zu vielen Alternativen beherrscht ComfyUI UNO sowohl Subjekt- als auch Objektreferenzen gleichzeitig ohne Identitätsverwirrung.
- Universelle Kompatibilität: ComfyUI UNO funktioniert mit verschiedenen Typen von Subjekten - Menschen, Objekte, Spielzeuge, Logos und mehr.
- Ressourceneffizienz: ComfyUI UNO liefert professionelle Ergebnisse selbst mit begrenzten VRAM-Ressourcen (funktioniert gut mit 24GB).
- Flexible Implementierung: ComfyUI UNO umfasst Workflows für sowohl Einzel-Subjekt- als auch Subjekt-Objekt-Generierung.
3. Verwendung von ComfyUI UNO
3.1 Workflow-Einrichtung
Der ComfyUI UNO-Workflow hat zwei Hauptkonfigurationen:
Obere Gruppe - Subjekt-Objekt-Generierung:
- Diese Konfiguration ermöglicht es Ihnen, ein Referenzsubjektbild und ein Referenzobjektbild einzugeben, die in einer generierten Szene gemäß Ihrem Textprompt kombiniert werden.
Untere Gruppe - Einzel-Subjekt-Generierung:
- Diese Konfiguration verwendet ein einzelnes Referenzbild und generiert neue Bilder dieses Subjekts in verschiedenen Kontexten.
3.2 Generierungsprozess mit ComfyUI UNO
Grundlegende Einrichtung:
- Laden Sie Referenzbilder:
- Für den Subjekt-Objekt-Workflow (obere Gruppe): Laden Sie ein Subjektreferenzbild und ein Objektreferenzbild hoch
- Für den Einzel-Subjekt-Workflow (untere Gruppe): Laden Sie ein Referenzbild hoch
- Legen Sie den Textprompt für ComfyUI UNO fest:
- Schreiben Sie einen beschreibenden Prompt für Ihre gewünschte Szene, einschließlich wie das Referenzsubjekt/-objekt erscheinen soll
- Passen Sie die ComfyUI UNO-Parameter an:
Width/Height
: Bestimmen Sie die Ausgabeauflösung (empfohlen 768×1024 oder 1024×1024)Guidance
: Steuert, wie eng die ComfyUI UNO-Generierung Ihrem Textprompt folgt (3.5-4.0 empfohlen)Num_steps
: Höhere Werte (20+) erzeugen konsistentere Ergebnisse mit ComfyUI UNO, insbesondere bei menschlichen GesichternSeed
: Legen Sie einen bestimmten Seed für die Reproduzierbarkeit fest oder randomisieren Sie für Vielfalt in ComfyUI UNO-Ausgaben
- Bild mit ComfyUI UNO generieren:
- Klicken Sie auf "Queue Prompt", um den ComfyUI UNO-Workflow auszuführen
- Überprüfen Sie das Ergebnis im "Save Image"-Knoten
3.3 Parameterreferenz für ComfyUI UNO
UNO Loadmodel Node:
model_type
: Bestimmt, welche ComfyUI UNO-Modellvariante verwendet wirdflux-dev
: Standard ComfyUI UNO-Modell mit gutem Gleichgewicht zwischen Qualität und Leistungflux-schnell
: Schnelleres ComfyUI UNO-Modell mit etwas niedrigerer Qualität
3.4 Tipps für beste Ergebnisse mit ComfyUI UNO
Subjektauswahl für ComfyUI UNO:
- Wählen Sie klare, gut beleuchtete Referenzbilder, auf denen das Subjekt prominent ist
- Für Gesichter/Menschen funktionieren frontale Bilder mit neutralen Ausdrücken am besten mit ComfyUI UNO
- Für Objekte sind klare Bilder mit minimalen Hintergrundstörungen ideal für die Verarbeitung mit ComfyUI UNO
Prompt-Engineering für ComfyUI UNO:
- Seien Sie spezifisch bei Subjektbeschreibungen, die zu Ihren Referenzbildern passen
- Beschreiben Sie die gewünschte Szene, Beleuchtung und Komposition, die ComfyUI UNO generieren soll
- Beziehen Sie sich auf die spezifischen Subjekte (z.B. "ein junger Mann", "ein Vintage-Fahrrad")
- Halten Sie Prompts prägnant, aber detailliert für optimale ComfyUI UNO-Ergebnisse
4. Technische Informationen über ComfyUI UNO
Die ComfyUI UNO-Technologie basiert auf FLUX-Modellen und nutzt die DiT (Diffusion Transformer)-Architektur mit mehreren wesentlichen Verbesserungen:
- Universal Rotary Position Embedding (UnoPE): Ein spezialisiertes Mechanismus in ComfyUI UNO, das dem Modell hilft, zwischen Referenzsubjekten und -objekten zu unterscheiden und die Attributverwirrung erheblich zu reduzieren.
- Progressive Cross-Modal Alignment: Trainingsmethode, die es ComfyUI UNO ermöglicht, zunehmend komplexere Multi-Bedingungs-Kontrollen zu handhaben.
- Universelle Anpassung: ComfyUI UNO ist in der Lage, mit verschiedenen Subjekttypen umzugehen, ohne spezielles Training.
5. Danksagungen
Dieser ComfyUI-Workflow wird von UNO angetrieben, entwickelt vom Intelligent Creation Team bei ByteDance (Shaojin Wu, Mengqi Huang, Wenxu Wu, Yufeng Cheng, Fei Ding und Qian He). Die ComfyUI-Integration von ByteDance's UNO wird von Community-Mitwirkenden bereitgestellt, die die bahnbrechende Forschung in einen zugänglichen Workflow umsetzen.
Für weitere Informationen über UNO besuchen Sie das .