logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>Flujos de trabajo>Z Image | Generador Fotorrealista Ultra-Rápido

Z Image | Generador Fotorrealista Ultra-Rápido

Workflow Name: RunComfy/Z-Image
Workflow ID: 0000...1316
Este flujo de trabajo te ayuda a crear visuales fotorrealistas con un detalle increíble y precisión en la iluminación en solo segundos. Diseñado para iteraciones creativas rápidas, asegura un renderizado eficiente y una salida consistente incluso en GPUs estándar. Puedes producir diseños de alta resolución perfectos para publicidad, trabajo de concepto o prototipos visuales. Su arquitectura optimizada permite ciclos de retroalimentación rápidos para la experimentación con estilo y composición. Ideal para diseñadores que desean resultados de calidad profesional sin las demandas de hardware pesado.

Z Image Turbo para ComfyUI: texto a imagen rápido con iteración casi en tiempo real

Este flujo de trabajo lleva Z Image Turbo a ComfyUI para que puedas generar visuales de alta resolución y fotorrealistas con muy pocos pasos y una estricta adherencia al prompt. Está diseñado para creadores que necesitan renders rápidos y consistentes para arte conceptual, composiciones publicitarias, medios interactivos y pruebas A/B rápidas.

El gráfico sigue un camino limpio desde los prompts de texto hasta una imagen: carga el modelo Z Image y los componentes de soporte, codifica prompts positivos y negativos, crea un lienzo latente, realiza muestras con una programación AuraFlow, y luego decodifica a RGB para guardar. El resultado es una canalización de Z Image optimizada que favorece la velocidad sin sacrificar el detalle.

Modelos clave en el flujo de trabajo Z Image de ComfyUI

  • Tongyi-MAI Z Image Turbo. El generador principal que realiza la reducción de ruido de manera destilada y eficiente en pasos. Apunta al fotorrealismo, texturas nítidas y composición fiel mientras mantiene baja la latencia. Model card
  • Codificador de texto Qwen 4B (qwen_3_4b.safetensors). Proporciona condicionamiento lingüístico para el modelo de modo que el estilo, el sujeto y la composición en tu prompt guíen la trayectoria de reducción de ruido.
  • Autoencoder AE (ae.safetensors). Traduce entre el espacio latente y los píxeles para que el resultado final de Z Image pueda ser visto y exportado.

Cómo usar el flujo de trabajo Z Image de ComfyUI

A un nivel alto, el camino va del prompt al condicionamiento, a través del muestreo de Z Image, luego decodificando a una imagen. Los nodos están agrupados en etapas para mantener la operación simple.

Cargadores de modelo: UNETLoader (#16), CLIPLoader (#18), VAELoader (#17)

Esta etapa carga el punto de control principal de Z Image Turbo, el codificador de texto y el autoencoder. Elige el punto de control BF16 si lo tienes, ya que equilibra velocidad y calidad para GPUs de consumo. El codificador de estilo CLIP asegura que tu redacción controle la escena y el estilo. El AE es necesario para convertir latentes de nuevo a RGB una vez que finaliza el muestreo.

Prompts: CLIP Text Encode (Positive Prompt) (#6) y CLIP Text Encode (Negative Prompt) (#7)

Escribe lo que deseas en el prompt positivo usando sustantivos concretos, indicaciones de estilo, pistas de cámara e iluminación. Usa el prompt negativo para suprimir artefactos comunes como el desenfoque u objetos no deseados. Si ves un prefacio de prompt como un encabezado de instrucciones de un ejemplo oficial, puedes mantenerlo, editarlo o eliminarlo y el flujo de trabajo seguirá funcionando. Juntos, estos codificadores producen el condicionamiento que dirige Z Image durante el muestreo.

Latente y programador: EmptySD3LatentImage (#13) y ModelSamplingAuraFlow (#11)

Elige tu tamaño de salida configurando el lienzo latente. El nodo programador cambia el modelo a una estrategia de muestreo estilo AuraFlow que se alinea bien con modelos destilados eficientes en pasos. Esto mantiene las trayectorias estables a bajas cuentas de pasos mientras preserva el detalle fino. Una vez que se establecen el lienzo y el programa, la canalización está lista para reducir el ruido.

Muestreo: KSampler (#3)

Este nodo realiza la reducción de ruido real utilizando el modelo Z Image cargado, el programador seleccionado y tu condicionamiento de prompt. Ajusta el tipo de muestreador y la cuenta de pasos para intercambiar velocidad por detalle cuando sea necesario. La escala de guía controla la fuerza del prompt en relación con el anterior; los valores moderados generalmente dan el mejor equilibrio de fidelidad y variación creativa. Aleatoriza la semilla para la exploración o fíjala para obtener resultados repetibles.

Decodificar y guardar: VAEDecode (#8) y SaveImage (#9)

Después del muestreo, el AE decodifica latentes a una imagen. El nodo de guardado escribe archivos en tu directorio de salida para que puedas comparar iteraciones o alimentar resultados en tareas posteriores. Si planeas escalar o procesar posteriormente, mantén la decodificación en tu resolución de trabajo deseada y exporta formatos sin pérdida para la mejor retención de calidad.

Nodos clave en el flujo de trabajo Z Image de ComfyUI

UNETLoader (#16)

Carga el punto de control Z Image Turbo (z_image_turbo_bf16.safetensors). Usa esto para cambiar entre variantes de precisión o pesos actualizados a medida que estén disponibles. Mantén el modelo consistente a lo largo de una sesión si deseas que las semillas y los prompts permanezcan comparables. Cambiar el modelo base cambiará el aspecto, la respuesta de color y la densidad del detalle.

ModelSamplingAuraFlow (#11)

Establece la estrategia de muestreo a un programa estilo AuraFlow adecuado para una convergencia rápida. Esta es la clave para hacer que Z Image sea eficiente a bajas cuentas de pasos mientras preserva el detalle y la coherencia. Si cambias los programas más tarde, revisa las cuentas de pasos y la guía para mantener características de salida similares.

KSampler (#3)

Controla el algoritmo de muestreo, pasos, guía y semilla. Usa menos pasos para la ideación rápida y aumenta solo cuando necesites más microdetalle o una adherencia más estricta al prompt. Diferentes muestreadores favorecen diferentes aspectos; prueba un par y mantén el resto de la canalización fija al comparar resultados.

CLIP Text Encode (Positive Prompt) (#6)

Codifica la intención creativa que impulsa Z Image. Enfócate en el sujeto, medio, lente, iluminación, composición y cualquier restricción de marca o diseño. Combínalo con el nodo de prompt negativo para orientar la imagen hacia tu aspecto objetivo mientras filtras artefactos conocidos.

Extras opcionales

  • Usa resoluciones cuadradas o casi cuadradas para la primera pasada, luego ajusta la relación de aspecto una vez que la composición esté bloqueada.
  • Mantén una biblioteca de fragmentos de prompt reutilizables para sujetos, lentes e iluminación para acelerar la iteración en proyectos.
  • Para una dirección de arte consistente, fija la semilla y varía solo un factor por iteración como una etiqueta de estilo o una pista de cámara.
  • Si las salidas se sienten demasiado controladas, reduce la guía ligeramente o elimina frases excesivamente prescriptivas del prompt positivo.
  • Al preparar activos para la edición posterior, exporta PNGs sin pérdida y mantén un registro del prompt, semilla y resolución junto a cada render de Z Image.

Agradecimientos

Este flujo de trabajo implementa y se basa en los siguientes trabajos y recursos. Agradecemos a Tongyi-MAI por Z-Image-Turbo por sus contribuciones y mantenimiento. Para detalles autorizados, consulta la documentación original y los repositorios enlazados a continuación.

Recursos

  • Tongyi-MAI/Z-Image-Turbo
    • Hugging Face: Tongyi-MAI/Z-Image-Turbo

Nota: El uso de los modelos, conjuntos de datos y código referenciados está sujeto a las respectivas licencias y términos proporcionados por sus autores y mantenedores.

Want More ComfyUI Workflows?

Wan 2.1 | Generación de Video Revolucionaria

Crea videos increíbles a partir de texto o imágenes con IA revolucionaria ejecutándose en CPUs cotidianas.

Wan 2.1 LoRA

Mejora la generación de video Wan 2.1 con modelos LoRA para un estilo y personalización mejorados.

Wan 2.1 Control LoRA | Profundidad y Mosaico

Avanza la generación de video Wan 2.1 con LoRAs de profundidad y mosaico ligeros para mejorar la estructura y el detalle.

Wan 2.1 Fun | Generación de Video ControlNet

Genera videos con pasos visuales estilo ControlNet como Profundidad, Canny y OpenPose.

Wan 2.1 Video Restyle | Transformación Consistente del Estilo de Video

Transforma el estilo de tu video aplicando el primer fotograma reestilizado usando el flujo de trabajo de reestilización de video Wan 2.1.

PuLID Flux II | Generación de Personajes Consistentes

Genera imágenes con control preciso de personajes mientras preservas el estilo artístico.

ComfyUI Grounding | Flujo de Trabajo de Seguimiento de Objetos

Rastree cualquier sujeto con precisión de píxel para obtener resultados impresionantes en VFX.

Hunyuan Image 2.1 | Generador de Imágenes de IA de Alta Resolución

Modelo 2.1 de próxima generación para visuales de IA nítidos, claros y ultra definidos rápidamente.

Síguenos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Soporte
  • Discord
  • Correo electrónico
  • Estado del sistema
  • afiliado
Recursos
  • ComfyUI en línea gratis
  • Guías de ComfyUI
  • RunComfy API
  • Tutoriales de ComfyUI
  • Nodos de ComfyUI
  • Aprende más
Legal
  • Términos de servicio
  • Política de privacidad
  • Política de cookies
RunComfy
Derechos de autor 2026 RunComfy. Todos los derechos reservados.

RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Models, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.