UNO | Konsistente Subjekt- & Objektgenerierung
Der UNO-Workflow für ComfyUI bringt die fortschrittliche Bildgenerierungstechnologie zu RunComfy. Dieses leistungsstarke Modell zeichnet sich durch die Erstellung hochkonsistenter Bilder aus, wenn Referenzobjekte bereitgestellt werden. Egal, ob Sie eine Einzelobjektgenerierung (ein Charakter in verschiedenen Szenen) oder Subjekt-Objekt-Kompositionen (Kombination eines Subjekts mit einem spezifischen Objekt in einem Bild) benötigen, ComfyUI UNO liefert außergewöhnliche Treue und Qualität. Das Modell arbeitet effektiv sogar auf kleineren Cloud-Maschinen, wodurch die Bildanpassung von ComfyUI UNO für jeden zugänglich wird. Perfekt für Produktvisualisierungen, Charakterillustrationen, kreative Kompositionen und vieles mehr.ComfyUI UNO Subject-Object Generation Arbeitsablauf

- Voll funktionsfähige Workflows
- Keine fehlenden Nodes oder Modelle
- Keine manuelle Einrichtung erforderlich
- Beeindruckende Visualisierungen
ComfyUI UNO Subject-Object Generation Beispiele




ComfyUI UNO Subject-Object Generation Beschreibung
ComfyUI UNO Beschreibung
1. Was ist ComfyUI UNO?
Der ComfyUI UNO-Workflow integriert das Universal aNd cOntrollable (UNO) Modell von ByteDance in die ComfyUI-Umgebung. Entwickelt vom Intelligent Creation Team von ByteDance, stellt UNO einen bedeutenden Fortschritt in der subjektgesteuerten Bildgenerierungstechnologie dar, basierend auf dem innovativen "Less-to-More"-Generalisation Paradigma. Der ComfyUI UNO-Workflow ermöglicht flexible und hochpräzise Bildgenerierung, während die Identitätsmerkmale von Referenzobjekten mit bemerkenswerter Konsistenz über verschiedene Kontexte und Szenarien hinweg erhalten bleiben.
2. Vorteile von ComfyUI UNO:
- Überlegene Subjektkonsistenz: ComfyUI UNO bewahrt außergewöhnliche Subjektsimilarität in unterschiedlichen Kontexten.
- Subjekt-Objekt-Kontrolle: Im Gegensatz zu vielen Alternativen glänzt ComfyUI UNO im Umgang mit sowohl Subjektreferenzen als auch Objektreferenzen gleichzeitig ohne Identitätsverwirrung.
- Universelle Kompatibilität: ComfyUI UNO arbeitet mit vielfältigen Subjekttypen - Menschen, Objekte, Spielzeuge, Logos und mehr.
- Ressourceneffizienz: ComfyUI UNO liefert professionelle Ergebnisse auch bei begrenzten VRAM-Ressourcen (funktioniert gut mit 24GB).
- Flexible Implementierung: ComfyUI UNO beinhaltet Workflows für sowohl Einzelobjekt- als auch Subjekt-Objekt-Generierung.
3. Wie man ComfyUI UNO verwendet
3.1 Workflow-Einrichtung
Der ComfyUI UNO-Workflow hat zwei Hauptkonfigurationen:
Obergruppe - Subjekt-Objekt-Generierung:
- Diese Konfiguration ermöglicht es, ein Referenzsubjektbild und ein Referenzobjektbild einzugeben, die in einer generierten Szene gemäß Ihrem Text-Prompt kombiniert werden.
Untergruppe - Einzelobjekt-Generierung:
- Diese Konfiguration verwendet ein einzelnes Referenzbild und generiert neue Bilder dieses Subjekts in verschiedenen Kontexten.
3.2 Generierungsprozess mit ComfyUI UNO
Grundlegende Einrichtung:
- Referenzbilder laden:
- Für den Subjekt-Objekt-Workflow (Obergruppe): Laden Sie ein Subjektreferenzbild und ein Objektreferenzbild hoch
- Für den Einzelobjekt-Workflow (Untergruppe): Laden Sie ein Referenzbild hoch
- Text-Prompt für ComfyUI UNO festlegen:
- Schreiben Sie einen beschreibenden Prompt für Ihre gewünschte Szene, einschließlich, wie das Referenzsubjekt/-objekt erscheinen soll
- ComfyUI UNO Parameter anpassen:
Width/Height
: Bestimmen Sie die Ausgaberauflösung (empfohlen 768×1024 oder 1024×1024)Guidance
: Steuert, wie eng die ComfyUI UNO-Generierung Ihrem Text-Prompt folgt (3.5-4.0 empfohlen)Num_steps
: Höhere Werte (20+) liefern konsistentere Ergebnisse mit ComfyUI UNO, insbesondere für menschliche GesichterSeed
: Legen Sie einen spezifischen Seed für Reproduzierbarkeit fest oder randomisieren Sie für Vielfalt in den ComfyUI UNO-Ausgaben
- Bild mit ComfyUI UNO generieren:
- Klicken Sie auf "Queue Prompt", um den ComfyUI UNO-Workflow auszuführen
- Überprüfen Sie das Ergebnis im "Save Image"-Knoten
3.3 Parameterreferenz für ComfyUI UNO
UNO Loadmodel Node:
model_type
: Bestimmt, welche ComfyUI UNO-Modellvariante verwendet wirdflux-dev
: Standard ComfyUI UNO-Modell mit guter Balance zwischen Qualität und Leistungflux-schnell
: Schnellere ComfyUI UNO-Modellvariante mit leicht geringerer Qualität
3.4 Tipps für beste Ergebnisse mit ComfyUI UNO
Subjektauswahl für ComfyUI UNO:
- Wählen Sie klare, gut beleuchtete Referenzbilder, bei denen das Subjekt prominent ist
- Für Gesichter/Menschen funktionieren frontale Bilder mit neutralen Ausdrücken am besten mit ComfyUI UNO
- Für Objekte sind klare Bilder mit minimaler Hintergrundablenkung ideal für die ComfyUI UNO-Verarbeitung
Prompt-Engineering für ComfyUI UNO:
- Seien Sie spezifisch bei der Beschreibung von Subjekten, die Ihren Referenzbildern entsprechen
- Beschreiben Sie die gewünschte Szene, Beleuchtung und Komposition, die ComfyUI UNO generieren soll
- Beziehen Sie sich auf spezifische Subjekte (z.B. "ein junger Mann", "ein Vintage-Fahrrad")
- Halten Sie die Prompts prägnant, aber detailliert für optimale ComfyUI UNO-Ergebnisse
4. Technische Informationen über ComfyUI UNO
Die ComfyUI UNO-Technologie basiert auf FLUX-Modellen und nutzt die DiT (Diffusion Transformer)-Architektur mit mehreren wichtigen Verbesserungen:
- Universal Rotary Position Embedding (UnoPE): Ein spezialisiertes Mechanismus in ComfyUI UNO, das dem Modell hilft, zwischen Referenzsubjekten und -objekten zu unterscheiden, wodurch Attributverwirrung erheblich reduziert wird.
- Progressive Cross-Modal Alignment: Trainingsmethodik, die es ComfyUI UNO ermöglicht, zunehmend komplexere Multikonditionskontrollen zu bewältigen.
- Universelle Anpassung: ComfyUI UNO ist in der Lage, mit verschiedenen Subjekttypen ohne spezielles Training umzugehen.
5. Danksagungen
Dieser ComfyUI-Workflow wird von UNO betrieben, entwickelt vom Intelligent Creation Team bei ByteDance (Shaojin Wu, Mengqi Huang, Wenxu Wu, Yufeng Cheng, Fei Ding und Qian He). Die ComfyUI-Integration von ByteDance's UNO wird von Community-Mitgliedern bereitgestellt, die die bahnbrechende Forschung in einen zugänglichen Workflow adaptieren.
Für weitere Informationen über UNO besuchen Sie das .