Ce flux de travail assemble Z-Image-Turbo et un ensemble rotatif de modèles Z-Image finetuned en un seul graphique ComfyUI prêt pour la production. Il est conçu pour comparer les styles côte à côte, maintenir un comportement de prompt cohérent, et produire des résultats nets et cohérents avec un minimum d'étapes. Sous le capot, il combine le chargement optimisé d'UNet, la normalisation CFG, l'échantillonnage compatible AuraFlow, et l'injection LoRA optionnelle pour explorer le réalisme, le portrait cinématographique, le dark fantasy et les looks inspirés de l'anime sans reconfigurer votre canevas.
Les modèles Z-Image Finetuned sont idéaux pour les artistes, les ingénieurs de prompt et les explorateurs de modèles qui souhaitent une méthode rapide pour évaluer plusieurs points de contrôle et LoRAs tout en restant dans un pipeline cohérent. Entrez un prompt, rendez quatre variations à partir de différents finetunes Z-Image, et verrouillez rapidement le style qui correspond le mieux à votre briefing.
Tongyi-MAI Z-Image-Turbo. Un transformateur de diffusion à flux unique de 6 milliards de paramètres distillé pour une conversion texte-image photoréaliste en quelques étapes avec une forte adhérence aux instructions et un rendu textuel bilingue. Les poids officiels et les notes d'utilisation sont sur la carte du modèle, avec le rapport technique et les méthodes de distillation détaillées sur arXiv et dans le dépôt du projet. Model • Paper • Decoupled-DMD • DMDR • GitHub • Diffusers pipeline
BEYOND REALITY Z-Image (community finetune). Un point de contrôle Z-Image à tendance photoréaliste qui met l'accent sur des textures brillantes, des bords nets et une finition stylisée, adapté aux portraits et aux compositions de type produit. Model
Z-Image-Turbo-Realism LoRA (exemple de LoRA utilisé dans la voie LoRA de ce flux de travail). Un adaptateur léger qui pousse le rendu ultra-réaliste tout en préservant l'alignement des prompts de base Z-Image-Turbo ; chargeable sans remplacer votre modèle de base. Model
Famille AuraFlow (référence compatible avec l'échantillonnage). Le flux de travail utilise des crochets d'échantillonnage de style AuraFlow pour des générations stables en quelques étapes ; voir la référence de pipeline pour le contexte sur les planificateurs AuraFlow et leurs objectifs de conception. Docs
Le graphique est organisé en quatre voies de génération indépendantes qui partagent un encodeur de texte commun et un VAE. Utilisez un prompt pour piloter toutes les voies, puis comparez les résultats enregistrés de chaque branche.
Modèle Général
CLIPTextEncode positif (#75) et ajoutez des contraintes optionnelles au CLIPTextEncode négatif (#74). Cela garde le conditionnement identique entre les branches afin que vous puissiez juger équitablement comment chaque finetune se comporte. Le VAELoader (#21) fournit le décodeur utilisé par toutes les voies pour transformer les latents en images.Z-Image (Base Turbo)
UNETLoader (#100) et le corrige avec ModelSamplingAuraFlow (#76) pour une stabilité en quelques étapes. CFGNorm (#67) standardise le comportement de la guidance sans classificateur afin que le contraste et le détail du sampler restent prévisibles à travers les prompts. Un EmptyLatentImage (#19) définit la taille du canevas, puis KSampler (#78) génère des latents qui sont décodés par VAEDecode (#79) et écrits par SaveImage (#102). Utilisez cette branche comme votre référence lors de l'évaluation d'autres modèles Z-Image Finetuned.Z-Image-Turbo + Realism LoRA
LoraLoaderModelOnly (#106) au-dessus du UNETLoader de base (#82). ModelSamplingAuraFlow (#84) et CFGNorm (#64) maintiennent des sorties nettes tandis que la LoRA pousse le réalisme sans submerger le sujet. Définissez la résolution avec EmptyLatentImage (#71), générez avec KSampler (#85), décodez via VAEDecode (#86), et sauvegardez en utilisant SaveImage (#103). Si une LoRA semble trop forte, réduisez son poids ici plutôt que de sur-éditer votre prompt.BEYOND REALITY finetune
UNETLoader (#88) pour offrir un look stylisé et à fort contraste. CFGNorm (#66) apprivoise la guidance afin que la signature visuelle reste propre lorsque vous changez de samplers ou d'étapes. Définissez votre taille cible dans EmptyLatentImage (#72), rendez avec KSampler (#89), décodez VAEDecode (#90), et sauvegardez via SaveImage (#104). Utilisez le même prompt que la voie de base pour voir comment ce finetune interprète la composition et l'éclairage.Red Tide Dark Beast AIO finetune
CheckpointLoaderSimple (#92), puis normalisé par CFGNorm (#65). Cette voie s'appuie sur des palettes de couleurs sombres et un micro-contraste plus lourd tout en maintenant une bonne conformité aux prompts. Choisissez votre cadre dans EmptyLatentImage (#73), générez avec KSampler (#93), décodez avec VAEDecode (#94), et exportez depuis SaveImage (#105). C'est une méthode pratique pour tester des esthétiques plus rugueuses dans le même ensemble de modèles Z-Image Finetuned.ModelSamplingAuraFlow (#76, #84)
shift ajuste subtilement les trajectoires d'échantillonnage ; traitez-le comme un cadran de finesse qui interagit avec votre choix de sampler et votre budget d'étapes. Pour une meilleure comparabilité entre les voies, conservez le même sampler et ajustez une seule variable (par exemple, shift ou poids de LoRA) par test. Référence : contexte du pipeline AuraFlow et notes de planification. DocsCFGNorm (#64, #65, #66, #67)
strength si les hautes lumières s'effacent ou si les textures semblent incohérentes entre les voies ; réduisez-la si les images commencent à paraître excessivement compressées. Gardez-la similaire entre les branches lorsque vous souhaitez un A/B propre des modèles Z-Image Finetuned.LoraLoaderModelOnly (#106)
strength contrôle l'impact stylistique ; des valeurs plus basses préservent le réalisme de base tandis que des valeurs plus élevées imposent le look de la LoRA. Si une LoRA surpuissante les visages ou la typographie, réduisez d'abord son poids, puis affinez la formulation du prompt.KSampler (#78, #85, #89, #93)
shift par petits incréments pour isoler cause et effet.SaveImage sont étiquetés de manière unique pour que vous puissiez comparer et organiser rapidement.Liens pour lecture complémentaire :
Ce flux de travail met en œuvre et s'appuie sur les travaux et ressources suivants. Nous remercions chaleureusement les modèles HuggingFace pour l'article pour leurs contributions et leur maintenance. Pour des détails autoritaires, veuillez vous référer à la documentation originale et aux dépôts liés ci-dessous.
Note : L'utilisation des modèles, jeux de données et codes référencés est soumise aux licences et conditions respectives fournies par leurs auteurs et mainteneurs.
RunComfy est la première ComfyUI plateforme, offrant des ComfyUI en ligne environnement et services, ainsi que des workflows ComfyUI proposant des visuels époustouflants. RunComfy propose également AI Models, permettant aux artistes d'utiliser les derniers outils d'IA pour créer des œuvres d'art incroyables.