logo
RunComfy
  • Models
  • ComfyUI
  • TrainerNew
  • API
  • Pricing
discord logo
ComfyUI>Workflows>Z-Image Finetuned Modelle Sammlung | Multi-Style Generator

Z-Image Finetuned Modelle Sammlung | Multi-Style Generator

Workflow Name: RunComfy/Z-Image-Finetuned-Models
Workflow ID: 0000...1324
Mit diesem Workflow können Sie eine Sammlung spezialisierter Modellvariationen erkunden, die für verschiedene visuelle Themen und künstlerische Stile optimiert sind. Erzeugen Sie realistische Porträts, filmische Aufnahmen oder von Anime inspirierte Bilder mit feiner Kontrolle über Details und Ton. Der Workflow vereinfacht das Testen und Vergleichen von Finetuned-Modellen für effiziente Experimente. Die Integration optimierter UNet-Loader und CFG-Normalisierung verbessert die visuelle Konsistenz. LoRA-Optionen ermöglichen präzises Stilblending. Perfekt für Künstler und KI-Entdecker, die zuverlässige, hochwertige Ergebnisse suchen. Entsperren Sie konsistente, wunderschön detaillierte Visuals über mehrere Finetuned-Checkpoints hinweg.

Z-Image Finetuned Modelle: Multi-Style, hochqualitative Bildgenerierung in ComfyUI

Dieser Workflow kombiniert Z-Image-Turbo und eine rotierende Auswahl an Z-Image Finetuned-Modellen in einem einzigen, produktionsreifen ComfyUI-Graphen. Er ist darauf ausgelegt, Stile nebeneinander zu vergleichen, das Verhalten der Eingabeaufforderung konsistent zu halten und scharfe, kohärente Ergebnisse mit minimalen Schritten zu erzielen. Im Hintergrund kombiniert er optimierte UNet-Ladung, CFG-Normalisierung, AuraFlow-kompatibles Sampling und optionale LoRA-Injektion, sodass Sie Realismus, filmische Porträts, dunkle Fantasie und Anime-inspirierte Looks erkunden können, ohne Ihre Leinwand neu zu verdrahten.

Z-Image Finetuned Modelle ist ideal für Künstler, Prompt-Ingenieure und Modellentdecker, die eine schnelle Möglichkeit suchen, mehrere Checkpoints und LoRAs zu bewerten, während sie innerhalb einer konsistenten Pipeline bleiben. Geben Sie eine Eingabeaufforderung ein, rendern Sie vier Variationen aus verschiedenen Z-Image Finetunes und finden Sie schnell den Stil, der am besten zu Ihrem Brief passt.

Schlüsselmodelle im Comfyui Z-Image Finetuned Modelle Workflow

  • Tongyi-MAI Z-Image-Turbo. Ein 6B-Parameter Single-Stream Diffusion Transformer, destilliert für wenige Schritte, fotoreale Text-zu-Bild-Konvertierung mit starker Befehlstreue und zweisprachiger Texterstellung. Offizielle Gewichte und Nutzungshinweise finden Sie in der Modellkarte, mit dem technischen Bericht und den Destillationsmethoden, die auf arXiv und im Projekt-Repo detailliert sind. Model • Paper • Decoupled-DMD • DMDR • GitHub • Diffusers pipeline

  • BEYOND REALITY Z-Image (Community-Finetune). Ein fotorealistisch ausgerichteter Z-Image-Checkpoint, der glänzende Texturen, scharfe Kanten und stilisierte Veredelungen betont, geeignet für Porträts und produktähnliche Kompositionen. Model

  • Z-Image-Turbo-Realism LoRA (Beispiel-LoRA, das in dieser Workflow-LoRA-Spur verwendet wird). Ein leichter Adapter, der ultra-realistisches Rendern fördert, während die Basisausrichtung der Z-Image-Turbo-Eingabeaufforderung beibehalten wird; ladbar ohne Ihr Basismodell zu ersetzen. Model

  • AuraFlow-Familie (sampling-kompatible Referenz). Der Workflow verwendet AuraFlow-Style-Sampling-Hooks für stabile Generationen mit wenigen Schritten; sehen Sie sich die Pipeline-Referenz für Hintergrundinformationen zu AuraFlow-Planern und deren Designziele an. Docs

Wie man den Comfyui Z-Image Finetuned Modelle Workflow verwendet

Der Graph ist in vier unabhängige Generationsspuren organisiert, die einen gemeinsamen Text-Encoder und VAE teilen. Verwenden Sie eine Eingabeaufforderung, um alle Spuren zu steuern, und vergleichen Sie dann die Ergebnisse, die von jedem Zweig gespeichert wurden.

  • Allgemeines Modell

    • Das gemeinsame Setup lädt den Text-Encoder und VAE. Geben Sie Ihre Beschreibung in die positive CLIPTextEncode (#75) ein und fügen Sie optionale Einschränkungen in die negative CLIPTextEncode (#74) ein. Dies hält die Konditionierung über die Zweige hinweg identisch, sodass Sie fair beurteilen können, wie sich jeder Finetune verhält. Der VAELoader (#21) liefert den Decoder, der von allen Spuren verwendet wird, um Latents zurück in Bilder zu verwandeln.
  • Z-Image (Base Turbo)

    • Diese Spur führt das offizielle Z-Image-Turbo UNet über UNETLoader (#100) aus und patcht es mit ModelSamplingAuraFlow (#76) für Stabilität bei wenigen Schritten. CFGNorm (#67) standardisiert das Verhalten der klassifikatorfreien Führung, sodass der Kontrast und die Details des Samplers über Eingabeaufforderungen hinweg vorhersehbar bleiben. Ein EmptyLatentImage (#19) definiert die Leinwandgröße, dann generiert KSampler (#78) Latents, die von VAEDecode (#79) dekodiert und von SaveImage (#102) geschrieben werden. Verwenden Sie diesen Zweig als Ihre Basislinie, wenn Sie andere Z-Image Finetuned Modelle bewerten.
  • Z-Image-Turbo + Realism LoRA

    • Diese Spur injiziert einen Stiladapter mit LoraLoaderModelOnly (#106) auf dem Basismodell UNETLoader (#82). ModelSamplingAuraFlow (#84) und CFGNorm (#64) halten die Ausgaben scharf, während die LoRA den Realismus fördert, ohne das Thema zu überfordern. Definieren Sie die Auflösung mit EmptyLatentImage (#71), generieren Sie mit KSampler (#85), dekodieren Sie über VAEDecode (#86) und speichern Sie mit SaveImage (#103). Wenn eine LoRA zu stark erscheint, reduzieren Sie ihr Gewicht hier, anstatt Ihre Eingabeaufforderung zu überbearbeiten.
  • BEYOND REALITY Finetune

    • Dieser Pfad tauscht einen Community-Checkpoint mit UNETLoader (#88) aus, um einen stilisierten, kontrastreichen Look zu liefern. CFGNorm (#66) zähmt die Führung, sodass das visuelle Markenzeichen sauber bleibt, wenn Sie Sampler oder Schritte ändern. Stellen Sie Ihre Zielgröße in EmptyLatentImage (#72) ein, rendern Sie mit KSampler (#89), dekodieren Sie VAEDecode (#90) und speichern Sie über SaveImage (#104). Verwenden Sie dieselbe Eingabeaufforderung wie die Basislinie, um zu sehen, wie dieser Finetune Komposition und Beleuchtung interpretiert.
  • Red Tide Dark Beast AIO Finetune

    • Ein auf dunkle Fantasie ausgerichteter Checkpoint wird mit CheckpointLoaderSimple (#92) geladen und dann von CFGNorm (#65) normalisiert. Diese Spur neigt zu stimmungsvollen Farbpaletten und stärkeren Mikro-Kontrasten, während die Eingabeaufforderung gut eingehalten wird. Wählen Sie Ihren Rahmen in EmptyLatentImage (#73), generieren Sie mit KSampler (#93), dekodieren Sie mit VAEDecode (#94) und exportieren Sie aus SaveImage (#105). Es ist eine praktische Möglichkeit, grittigere Ästhetiken innerhalb desselben Z-Image Finetuned Modelle-Setups zu testen.

Schlüssel-Knoten im Comfyui Z-Image Finetuned Modelle Workflow

  • ModelSamplingAuraFlow (#76, #84)

    • Zweck: Patches das Modell, um einen AuraFlow-kompatiblen Sampling-Pfad zu verwenden, der bei sehr niedrigen Schrittzahlen stabil ist. Die shift-Steuerung passt subtil die Sampling-Trajektorien an; behandeln Sie es als ein Feineinstellungsrad, das mit Ihrer Sampler-Auswahl und dem Schrittbudget interagiert. Für die beste Vergleichbarkeit über Spuren hinweg behalten Sie denselben Sampler bei und passen nur eine Variable (z.B. shift oder LoRA-Gewicht) pro Test an. Referenz: AuraFlow-Pipeline-Hintergrund und Planungsnotizen. Docs
  • CFGNorm (#64, #65, #66, #67)

    • Zweck: Normalisiert die klassifikatorfreie Führung, sodass Kontrast und Detail nicht wild schwanken, wenn Sie Modelle, Schritte oder Planer ändern. Erhöhen Sie seine strength, wenn Highlights auswaschen oder Texturen zwischen den Spuren inkonsistent erscheinen; reduzieren Sie es, wenn Bilder zu stark komprimiert aussehen. Halten Sie es ähnlich über die Zweige hinweg, wenn Sie ein sauberes A/B der Z-Image Finetuned Modelle wünschen.
  • LoraLoaderModelOnly (#106)

    • Zweck: Injiziert einen LoRA-Adapter direkt in das geladene UNet, ohne den Basis-Checkpoint zu verändern. Der strength-Parameter steuert den stilistischen Einfluss; niedrigere Werte bewahren die Basisrealität, während höhere Werte das Aussehen der LoRA durchsetzen. Wenn eine LoRA Gesichter oder Typografie übermächtig beeinflusst, reduzieren Sie zuerst ihr Gewicht, dann feilen Sie an der Formulierung der Eingabeaufforderung.
  • KSampler (#78, #85, #89, #93)

    • Zweck: Führt die eigentliche Diffusionsschleife aus. Wählen Sie einen Sampler und Planer, die gut mit wenigen Schritt-Destillationen zusammenpassen; viele Benutzer bevorzugen Euler-Style-Sampler mit einheitlichen oder mehrstufigen Planern für Turbo-Klassen-Modelle. Halten Sie Samen fixiert, wenn Sie Spuren vergleichen, und ändern Sie nur eine Variable nach der anderen, um zu verstehen, wie sich jeder Finetune verhält.

Optionale Extras

  • Beginnen Sie mit einem beschreibenden, absatzstilartigen Prompt und verwenden Sie ihn in allen Spuren, um Unterschiede zwischen den Z-Image Finetuned Modellen zu beurteilen; iterieren Sie Stilwörter erst, nachdem Sie einen bevorzugten Zweig ausgewählt haben.
  • Für Turbo-Klassen-Modelle liefert sehr niedriger oder sogar null CFG oft die saubersten Ergebnisse; verwenden Sie die negative Eingabeaufforderung nur, wenn Sie bestimmte Elemente ausschließen müssen.
  • Behalten Sie dieselbe Auflösung, denselben Sampler und denselben Samen bei, wenn Sie A/B-Tests durchführen; ändern Sie das LoRA-Gewicht oder shift in kleinen Schritten, um Ursache und Wirkung zu isolieren.
  • Jeder Zweig schreibt seine eigene Ausgabe; die vier SaveImage-Knoten sind eindeutig beschriftet, sodass Sie schnell vergleichen und kuratieren können.

Links für weiterführende Lektüre:

  • Z-Image-Turbo Modellkarte: Tongyi-MAI/Z-Image-Turbo
  • Technischer Bericht und Methoden: Z-Image • Decoupled-DMD • DMDR
  • Projekt-Repository: Tongyi-MAI/Z-Image
  • Beispiel-Finetune: Nurburgring/BEYOND_REALITY_Z_IMAGE
  • Beispiel-LoRA: Z-Image-Turbo-Realism-LoRA

Acknowledgements

Dieser Workflow implementiert und baut auf den folgenden Arbeiten und Ressourcen auf. Wir danken den HuggingFace-Modellen für den Artikel für ihre Beiträge und Wartung. Für autoritative Details verweisen wir auf die originale Dokumentation und die unten verlinkten Repositories.

Ressourcen

  • HuggingFace Modelle:
    • Beyond Reality
    • Dark Beast
    • Realism

Hinweis: Die Nutzung der referenzierten Modelle, Datensätze und Codes unterliegt den jeweiligen Lizenzen und Bedingungen, die von ihren Autoren und Betreuern bereitgestellt werden.

Want More ComfyUI Workflows?

Flux Konsistente Charaktere | Eingabebild

Flux Konsistente Charaktere | Eingabebild

Erstellen Sie konsistente Charaktere und stellen Sie sicher, dass sie mit Ihren Bildern einheitlich aussehen.

Konsistenter Charakterersteller

Erstellen Sie konsistente, hochauflösende Charakterdesigns aus mehreren Blickwinkeln mit voller Kontrolle über Emotionen, Beleuchtung und Umgebungen.

Portrait Master | Text zu Porträt

Portrait Master | Text zu Porträt

Verwenden Sie den Portrait Master für eine größere Kontrolle über Porträtkreationen, ohne sich auf komplexe Prompts verlassen zu müssen.

IPAdapter V1 FaceID Plus | Konsistente Charaktere

IPAdapter V1 FaceID Plus | Konsistente Charaktere

Nutzen Sie das IPAdapter FaceID Plus V2-Modell, um konsistente Charaktere zu erstellen.

DreamO | Vereinheitlichtes Multi-Task Bildanpassungs-Framework

Führen Sie Identitäts-, Stil-, Anprobier- und Mehrbedingungs-Bilderzeugung aus 1–3 Referenzen durch

SUPIR + Foolhardy Remacri | 8K Bild/Video-Upscaler

SUPIR + Foolhardy Remacri | 8K Bild/Video-Upscaler

Skalieren Sie Bilder mit SUPIR und dem 4x Foolhardy Remacri-Modell auf 8K hoch.

AnimateDiff + ControlNet | Cartoon-Stil

Verleihen Sie Ihren Videos eine verspielte Note, indem Sie sie in lebhafte Cartoons verwandeln.

Flux Kontext 360 Grad LoRA

Erzeugen Sie immersive 360-Grad-Bilder mit Tiefen- und Raumkontrolle.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI Models, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.