logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>Z Image | Générateur Photorealiste Ultra-Rapide

Z Image | Générateur Photorealiste Ultra-Rapide

Workflow Name: RunComfy/Z-Image
Workflow ID: 0000...1316
Ce workflow vous aide à créer des visuels photoréalistes avec un détail incroyable et une précision d'éclairage en quelques secondes seulement. Conçu pour une itération créative rapide, il assure un rendu efficace et une production cohérente même sur des GPU standard. Vous pouvez produire des designs haute résolution parfaits pour la publicité, le travail conceptuel ou le prototypage visuel. Son architecture optimisée permet des boucles de rétroaction rapides pour expérimenter avec le style et la composition. Idéal pour les designers qui souhaitent des résultats de qualité professionnelle sans les exigences matérielles lourdes.

Z Image Turbo pour ComfyUI : texte rapide vers image avec itération quasi en temps réel

Ce workflow intègre Z Image Turbo dans ComfyUI afin que vous puissiez générer des visuels haute résolution, photoréalistes avec très peu d'étapes et une adhérence stricte aux invites. Il est conçu pour les créateurs qui ont besoin de rendus rapides et cohérents pour l'art conceptuel, les maquettes publicitaires, les médias interactifs et les tests A/B rapides.

Le graphe suit un chemin clair des invites textuelles à une image : il charge le modèle Z Image et les composants de support, encode les invites positives et négatives, crée une toile latente, échantillonne avec un calendrier AuraFlow, puis décode en RGB pour l'enregistrement. Le résultat est un pipeline Z Image rationalisé qui privilégie la vitesse sans sacrifier le détail.

Modèles clés dans le workflow Z Image de ComfyUI

  • Tongyi-MAI Z Image Turbo. Le générateur principal qui effectue la débruitage de manière distillée et efficace. Il vise le photoréalisme, des textures nettes et une composition fidèle tout en maintenant une faible latence. Carte du modèle
  • Encodeur de texte Qwen 4B (qwen_3_4b.safetensors). Fournit un conditionnement linguistique pour que le modèle guide la trajectoire de débruitage selon le style, le sujet et la composition de votre invite.
  • Autoencodeur AE (ae.safetensors). Traduit entre l'espace latent et les pixels pour que le résultat final Z Image puisse être visualisé et exporté.

Comment utiliser le workflow Z Image de ComfyUI

À un niveau élevé, le chemin va des invites au conditionnement, à travers l'échantillonnage Z Image, puis au décodage en une image. Les nœuds sont regroupés en étapes pour simplifier l'opération.

Chargeurs de modèles : UNETLoader (#16), CLIPLoader (#18), VAELoader (#17)

Cette étape charge le point de contrôle principal Z Image Turbo, l'encodeur de texte et l'autoencodeur. Choisissez le point de contrôle BF16 si vous l'avez, car il équilibre vitesse et qualité pour les GPU grand public. L'encodeur de style CLIP garantit que votre formulation contrôle la scène et le style. L'AE est nécessaire pour convertir les latents en RGB une fois l'échantillonnage terminé.

Invitation : CLIP Text Encode (Positive Prompt) (#6) et CLIP Text Encode (Negative Prompt) (#7)

Écrivez ce que vous voulez dans l'invite positive en utilisant des noms concrets, des indices de style, des indices de caméra et d'éclairage. Utilisez l'invite négative pour supprimer les artefacts courants comme le flou ou les objets indésirables. Si vous voyez un préambule d'invite tel qu'un en-tête d'instruction d'un exemple officiel, vous pouvez le conserver, le modifier ou le supprimer et le workflow fonctionnera toujours. Ensemble, ces encodeurs produisent le conditionnement qui guide Z Image pendant l'échantillonnage.

Latent et planificateur : EmptySD3LatentImage (#13) et ModelSamplingAuraFlow (#11)

Choisissez votre taille de sortie en définissant la toile latente. Le nœud de planification passe le modèle à une stratégie d'échantillonnage de style AuraFlow qui s'aligne bien avec les modèles distillés efficaces en étapes. Cela maintient les trajectoires stables à faible nombre d'étapes tout en préservant les détails fins. Une fois la toile et le calendrier définis, le pipeline est prêt à débruiter.

Échantillonnage : KSampler (#3)

Ce nœud effectue le débruitage réel en utilisant le modèle Z Image chargé, le planificateur sélectionné et votre conditionnement d'invite. Ajustez le type d'échantillonneur et le nombre d'étapes pour échanger la vitesse contre le détail lorsque nécessaire. L'échelle de guidage contrôle la force de l'invite par rapport au précédent ; des valeurs modérées donnent généralement le meilleur équilibre entre fidélité et variation créative. Randomisez la graine pour l'exploration ou fixez-la pour des résultats reproductibles.

Décoder et enregistrer : VAEDecode (#8) et SaveImage (#9)

Après l'échantillonnage, l'AE décode les latents en une image. Le nœud d'enregistrement écrit les fichiers dans votre répertoire de sortie afin que vous puissiez comparer les itérations ou intégrer les résultats dans des tâches en aval. Si vous prévoyez d'agrandir ou de post-traiter, gardez le décodage à votre résolution de travail souhaitée et exportez des formats sans perte pour une meilleure rétention de la qualité.

Nœuds clés dans le workflow Z Image de ComfyUI

UNETLoader (#16)

Charge le point de contrôle Z Image Turbo (z_image_turbo_bf16.safetensors). Utilisez ceci pour passer entre les variantes de précision ou les poids mis à jour au fur et à mesure qu'ils deviennent disponibles. Gardez le modèle cohérent sur une session si vous voulez que les graines et les invites restent comparables. Changer le modèle de base modifiera l'apparence, la réponse des couleurs et la densité des détails.

ModelSamplingAuraFlow (#11)

Définit la stratégie d'échantillonnage sur un calendrier de style AuraFlow adapté à une convergence rapide. C'est la clé pour rendre Z Image efficace à faible nombre d'étapes tout en préservant les détails et la cohérence. Si vous échangez les calendriers plus tard, revérifiez le nombre d'étapes et le guidage pour maintenir des caractéristiques de sortie similaires.

KSampler (#3)

Contrôle l'algorithme d'échantillonneur, les étapes, le guidage et la graine. Utilisez moins d'étapes pour une idéation rapide et augmentez seulement lorsque vous avez besoin de plus de micro-détails ou d'une adhérence plus stricte à l'invite. Différents échantillonneurs favorisent différents looks ; essayez-en quelques-uns et gardez le reste du pipeline fixe lors de la comparaison des résultats.

CLIP Text Encode (Positive Prompt) (#6)

Encode l'intention créative qui conduit Z Image. Concentrez-vous sur le sujet, le médium, l'objectif, l'éclairage, la composition et toute contrainte de marque ou de design. Associez-le au nœud d'invite négative pour pousser l'image vers votre look cible tout en filtrant les artefacts connus.

Extras optionnels

  • Utilisez des résolutions carrées ou presque carrées pour le premier passage, puis ajustez le rapport d'aspect une fois la composition verrouillée.
  • Gardez une bibliothèque de fragments d'invite réutilisables pour les sujets, les objectifs et l'éclairage afin d'accélérer l'itération à travers les projets.
  • Pour une direction artistique cohérente, fixez la graine et variez seulement un seul facteur par itération, tel qu'un tag de style ou un indice de caméra.
  • Si les sorties semblent trop contrôlées, réduisez légèrement le guidage ou supprimez les phrases trop prescriptives de l'invite positive.
  • Lors de la préparation des actifs pour l'édition en aval, exportez des PNG sans perte et gardez un enregistrement de l'invite, de la graine et de la résolution avec chaque rendu Z Image.

Remerciements

Ce workflow met en œuvre et s'appuie sur les travaux et ressources suivants. Nous remercions chaleureusement Tongyi-MAI pour Z-Image-Turbo pour leurs contributions et leur maintenance. Pour des détails autoritatifs, veuillez vous référer à la documentation originale et aux référentiels liés ci-dessous.

Ressources

  • Tongyi-MAI/Z-Image-Turbo
    • Hugging Face: Tongyi-MAI/Z-Image-Turbo

Note : L'utilisation des modèles, ensembles de données et codes référencés est soumise aux licences et conditions respectives fournies par leurs auteurs et mainteneurs.

Want More ComfyUI Workflows?

Wan 2.1 | Génération Vidéo Révolutionnaire

Créez des vidéos incroyables à partir de texte ou d'images avec une IA révolutionnaire fonctionnant sur des CPU quotidiens.

Wan 2.1 LoRA

Améliorez la génération vidéo Wan 2.1 avec des modèles LoRA pour un style et une personnalisation améliorés.

Wan 2.1 Control LoRA | Profondeur et Tuile

Améliorez la génération vidéo Wan 2.1 avec des LoRAs légers de profondeur et de tuiles pour une structure et des détails améliorés.

Wan 2.1 Fun | Génération Vidéo ControlNet

Générez des vidéos avec des passes visuelles de style ControlNet comme Profondeur, Canny, et OpenPose.

Wan 2.1 Video Restyle | Transformation cohérente du style vidéo

Transformez le style de votre vidéo en appliquant la première image restylée à l'aide du flux de travail Wan 2.1 video restyle.

FLUX Kontext Preset | Contrôle de Scène

Maîtrisez la création de scènes avec des préréglages AI en un clic soigneusement sélectionnés.

HiDream E1.1 | Édition d'images AI

Éditez des images avec un langage naturel en utilisant le modèle HiDream E1.1

Wan 2.2 Lightning T2V I2V | 4 Étapes Ultra Rapide

Wan 2.2 maintenant 20x plus rapide ! T2V + I2V en 4 étapes.

Suivez-nous
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • Email
  • État du système
  • affilié
Ressources
  • ComfyUI en ligne gratuit
  • Guides ComfyUI
  • RunComfy API
  • Tutoriels ComfyUI
  • Nœuds ComfyUI
  • En savoir plus
Légal
  • Conditions d'utilisation
  • Politique de confidentialité
  • Politique relative aux cookies
RunComfy
Droits d'auteur 2025 RunComfy. Tous droits réservés.

RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Playground, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.