logo
RunComfy
  • Models
  • ComfyUI
  • TrainerNew
  • API
  • Pricing
discord logo
ComfyUI>Workflows>Collection de Modèles Z-Image Finetuned | Générateur Multi-Style

Collection de Modèles Z-Image Finetuned | Générateur Multi-Style

Workflow Name: RunComfy/Z-Image-Finetuned-Models
Workflow ID: 0000...1324
Avec ce flux de travail, vous pouvez explorer une collection de variations de modèles spécialisés optimisés pour différents thèmes visuels et styles artistiques. Générez des portraits réalistes, des prises de vue cinématographiques ou des images inspirées de l'anime avec un contrôle précis sur le détail et le ton. Le flux de travail simplifie les tests et la comparaison des modèles finetuned pour une expérimentation efficace. L'intégration de chargeurs UNet optimisés et la normalisation CFG améliorent la cohérence visuelle. Les options LoRA permettent un mélange précis des styles. Parfait pour les artistes et les explorateurs de l'IA recherchant des résultats fiables et de haute qualité. Débloquez des visuels cohérents et magnifiquement détaillés à travers plusieurs points de contrôle finetuned.

Modèles Z-Image Finetuned : génération d'images multi-style et haute qualité dans ComfyUI

Ce flux de travail assemble Z-Image-Turbo et un ensemble rotatif de modèles Z-Image finetuned en un seul graphique ComfyUI prêt pour la production. Il est conçu pour comparer les styles côte à côte, maintenir un comportement de prompt cohérent, et produire des résultats nets et cohérents avec un minimum d'étapes. Sous le capot, il combine le chargement optimisé d'UNet, la normalisation CFG, l'échantillonnage compatible AuraFlow, et l'injection LoRA optionnelle pour explorer le réalisme, le portrait cinématographique, le dark fantasy et les looks inspirés de l'anime sans reconfigurer votre canevas.

Les modèles Z-Image Finetuned sont idéaux pour les artistes, les ingénieurs de prompt et les explorateurs de modèles qui souhaitent une méthode rapide pour évaluer plusieurs points de contrôle et LoRAs tout en restant dans un pipeline cohérent. Entrez un prompt, rendez quatre variations à partir de différents finetunes Z-Image, et verrouillez rapidement le style qui correspond le mieux à votre briefing.

Modèles clés dans le flux de travail Comfyui Z-Image Finetuned Models

  • Tongyi-MAI Z-Image-Turbo. Un transformateur de diffusion à flux unique de 6 milliards de paramètres distillé pour une conversion texte-image photoréaliste en quelques étapes avec une forte adhérence aux instructions et un rendu textuel bilingue. Les poids officiels et les notes d'utilisation sont sur la carte du modèle, avec le rapport technique et les méthodes de distillation détaillées sur arXiv et dans le dépôt du projet. Model • Paper • Decoupled-DMD • DMDR • GitHub • Diffusers pipeline

  • BEYOND REALITY Z-Image (community finetune). Un point de contrôle Z-Image à tendance photoréaliste qui met l'accent sur des textures brillantes, des bords nets et une finition stylisée, adapté aux portraits et aux compositions de type produit. Model

  • Z-Image-Turbo-Realism LoRA (exemple de LoRA utilisé dans la voie LoRA de ce flux de travail). Un adaptateur léger qui pousse le rendu ultra-réaliste tout en préservant l'alignement des prompts de base Z-Image-Turbo ; chargeable sans remplacer votre modèle de base. Model

  • Famille AuraFlow (référence compatible avec l'échantillonnage). Le flux de travail utilise des crochets d'échantillonnage de style AuraFlow pour des générations stables en quelques étapes ; voir la référence de pipeline pour le contexte sur les planificateurs AuraFlow et leurs objectifs de conception. Docs

Comment utiliser le flux de travail Comfyui Z-Image Finetuned Models

Le graphique est organisé en quatre voies de génération indépendantes qui partagent un encodeur de texte commun et un VAE. Utilisez un prompt pour piloter toutes les voies, puis comparez les résultats enregistrés de chaque branche.

  • Modèle Général

    • La configuration partagée charge l'encodeur de texte et le VAE. Entrez votre description dans le CLIPTextEncode positif (#75) et ajoutez des contraintes optionnelles au CLIPTextEncode négatif (#74). Cela garde le conditionnement identique entre les branches afin que vous puissiez juger équitablement comment chaque finetune se comporte. Le VAELoader (#21) fournit le décodeur utilisé par toutes les voies pour transformer les latents en images.
  • Z-Image (Base Turbo)

    • Cette voie exécute l'UNet officiel Z-Image-Turbo via UNETLoader (#100) et le corrige avec ModelSamplingAuraFlow (#76) pour une stabilité en quelques étapes. CFGNorm (#67) standardise le comportement de la guidance sans classificateur afin que le contraste et le détail du sampler restent prévisibles à travers les prompts. Un EmptyLatentImage (#19) définit la taille du canevas, puis KSampler (#78) génère des latents qui sont décodés par VAEDecode (#79) et écrits par SaveImage (#102). Utilisez cette branche comme votre référence lors de l'évaluation d'autres modèles Z-Image Finetuned.
  • Z-Image-Turbo + Realism LoRA

    • Cette voie injecte un adaptateur de style avec LoraLoaderModelOnly (#106) au-dessus du UNETLoader de base (#82). ModelSamplingAuraFlow (#84) et CFGNorm (#64) maintiennent des sorties nettes tandis que la LoRA pousse le réalisme sans submerger le sujet. Définissez la résolution avec EmptyLatentImage (#71), générez avec KSampler (#85), décodez via VAEDecode (#86), et sauvegardez en utilisant SaveImage (#103). Si une LoRA semble trop forte, réduisez son poids ici plutôt que de sur-éditer votre prompt.
  • BEYOND REALITY finetune

    • Ce chemin échange un point de contrôle communautaire avec UNETLoader (#88) pour offrir un look stylisé et à fort contraste. CFGNorm (#66) apprivoise la guidance afin que la signature visuelle reste propre lorsque vous changez de samplers ou d'étapes. Définissez votre taille cible dans EmptyLatentImage (#72), rendez avec KSampler (#89), décodez VAEDecode (#90), et sauvegardez via SaveImage (#104). Utilisez le même prompt que la voie de base pour voir comment ce finetune interprète la composition et l'éclairage.
  • Red Tide Dark Beast AIO finetune

    • Un point de contrôle orienté dark fantasy est chargé avec CheckpointLoaderSimple (#92), puis normalisé par CFGNorm (#65). Cette voie s'appuie sur des palettes de couleurs sombres et un micro-contraste plus lourd tout en maintenant une bonne conformité aux prompts. Choisissez votre cadre dans EmptyLatentImage (#73), générez avec KSampler (#93), décodez avec VAEDecode (#94), et exportez depuis SaveImage (#105). C'est une méthode pratique pour tester des esthétiques plus rugueuses dans le même ensemble de modèles Z-Image Finetuned.

Nœuds clés dans le flux de travail Comfyui Z-Image Finetuned Models

  • ModelSamplingAuraFlow (#76, #84)

    • Objectif : corrige le modèle pour utiliser un chemin d'échantillonnage compatible avec AuraFlow qui est stable à des comptes d'étapes très bas. Le contrôle shift ajuste subtilement les trajectoires d'échantillonnage ; traitez-le comme un cadran de finesse qui interagit avec votre choix de sampler et votre budget d'étapes. Pour une meilleure comparabilité entre les voies, conservez le même sampler et ajustez une seule variable (par exemple, shift ou poids de LoRA) par test. Référence : contexte du pipeline AuraFlow et notes de planification. Docs
  • CFGNorm (#64, #65, #66, #67)

    • Objectif : normalise la guidance sans classificateur afin que le contraste et le détail ne varient pas de manière excessive lorsque vous changez de modèles, d'étapes ou de planificateurs. Augmentez sa strength si les hautes lumières s'effacent ou si les textures semblent incohérentes entre les voies ; réduisez-la si les images commencent à paraître excessivement compressées. Gardez-la similaire entre les branches lorsque vous souhaitez un A/B propre des modèles Z-Image Finetuned.
  • LoraLoaderModelOnly (#106)

    • Objectif : injecte un adaptateur LoRA directement dans l'UNet chargé sans altérer le point de contrôle de base. Le paramètre strength contrôle l'impact stylistique ; des valeurs plus basses préservent le réalisme de base tandis que des valeurs plus élevées imposent le look de la LoRA. Si une LoRA surpuissante les visages ou la typographie, réduisez d'abord son poids, puis affinez la formulation du prompt.
  • KSampler (#78, #85, #89, #93)

    • Objectif : exécute la boucle de diffusion réelle. Choisissez un sampler et un planificateur qui se marient bien avec les distillations en quelques étapes ; de nombreux utilisateurs préfèrent les samplers de style Euler avec des planificateurs uniformes ou multi-étapes pour les modèles de la classe Turbo. Gardez les graines fixes lors de la comparaison des voies, et changez une seule variable à la fois pour comprendre comment chaque finetune se comporte.

Extras optionnels

  • Commencez avec un prompt descriptif de style paragraphe et réutilisez-le à travers toutes les voies pour juger des différences entre les modèles Z-Image Finetuned ; itérez les mots de style uniquement après avoir choisi une branche préférée.
  • Pour les modèles de classe Turbo, un CFG très bas ou même nul donne souvent les résultats les plus propres ; utilisez le prompt négatif uniquement lorsque vous devez exclure des éléments spécifiques.
  • Maintenez la même résolution, le même sampler et la même graine lors des tests A/B ; changez le poids de la LoRA ou le shift par petits incréments pour isoler cause et effet.
  • Chaque branche écrit sa propre sortie ; les quatre nœuds SaveImage sont étiquetés de manière unique pour que vous puissiez comparer et organiser rapidement.

Liens pour lecture complémentaire :

  • Carte du modèle Z-Image-Turbo : Tongyi-MAI/Z-Image-Turbo
  • Rapport technique et méthodes : Z-Image • Decoupled-DMD • DMDR
  • Dépôt de projet : Tongyi-MAI/Z-Image
  • Exemple de finetune : Nurburgring/BEYOND_REALITY_Z_IMAGE
  • Exemple de LoRA : Z-Image-Turbo-Realism-LoRA

Remerciements

Ce flux de travail met en œuvre et s'appuie sur les travaux et ressources suivants. Nous remercions chaleureusement les modèles HuggingFace pour l'article pour leurs contributions et leur maintenance. Pour des détails autoritaires, veuillez vous référer à la documentation originale et aux dépôts liés ci-dessous.

Ressources

  • Modèles HuggingFace:
    • Beyond Reality
    • Dark Beast
    • Realism

Note : L'utilisation des modèles, jeux de données et codes référencés est soumise aux licences et conditions respectives fournies par leurs auteurs et mainteneurs.

Want More ComfyUI Workflows?

Flux Consistent Characters | Input Image

Flux Consistent Characters | Input Image

Créez des personnages cohérents et assurez-vous qu'ils paraissent uniformes en utilisant vos images.

Créateur de Personnage Cohérent

Créez des designs de personnages cohérents et haute résolution sous plusieurs angles avec un contrôle total sur les émotions, l'éclairage et les environnements.

Portrait Master | Texte en Portrait

Portrait Master | Texte en Portrait

Utilisez Portrait Master pour un meilleur contrôle sur la création de portraits sans dépendre de prompts complexes.

IPAdapter V1 FaceID Plus | Personnages cohérents

IPAdapter V1 FaceID Plus | Personnages cohérents

Tirez parti du modèle IPAdapter FaceID Plus V2 pour créer des personnages cohérents.

DreamO | Cadre Unifié de Personnalisation d'Image Multi-Tâches

Effectuez la génération d'image d'identité, de style, d'essayage, et multi-condition à partir de 1 à 3 références

Hallo2 | Animation de portrait synchronisée sur les lèvres

Synchronisation labiale pilotée par audio pour l'animation de portrait en 4K.

Stable Cascade | Texte à Image

Stable Cascade | Texte à Image

Stable Cascade, un modèle de texte-à-image qui excelle dans l'alignement des prompts et l'esthétique.

Insérer N'importe Quoi | Édition d'Image Basée sur la Référence

Insérez n'importe quel sujet dans des images avec un guidage par masque ou texte.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Models, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.