Este flujo de trabajo convierte tus indicaciones en renderizados nativos de 2048×2048 utilizando Hunyuan Image 2.1. Combina el transformador de difusión de Tencent con codificadores de texto duales para mejorar la alineación semántica y la calidad de renderizado de texto, luego muestrea de manera eficiente y decodifica a través del VAE de alta compresión correspondiente. Si necesitas escenas listas para producción, personajes y texto claro en imagen a 2K manteniendo velocidad y control, este flujo de trabajo de ComfyUI Hunyuan Image 2.1 está diseñado para ti.
Creadores, directores de arte y artistas técnicos pueden introducir indicaciones multilingües, ajustar algunos controles y obtener resultados nítidos de manera consistente. El gráfico se entrega con una indicación negativa sensata, un lienzo nativo 2K y un FP8 UNet para mantener el VRAM bajo control, mostrando lo que Hunyuan Image 2.1 puede ofrecer de inmediato.
El gráfico sigue un camino claro desde la indicación hasta los píxeles: codifica texto con dos codificadores, prepara un lienzo latente nativo 2K, muestra con Hunyuan Image 2.1, decodifica a través del VAE correspondiente y guarda el resultado.
DualCLIPLoader
(#33) carga Qwen2.5‑VL‑7B y ByT5 Small configurados para Hunyuan Image 2.1. Esta configuración dual permite al modelo analizar semánticas de escena mientras se mantiene robusto ante glifos y texto multilingüe.CLIPTextEncode
(#6). Puedes escribir en inglés o chino, mezclar pistas de cámara e iluminación e incluir instrucciones de texto en imagen.CLIPTextEncode
(#7) suprime artefactos comunes. Puedes adaptarla a tu estilo o dejarla tal como está para resultados equilibrados.EmptyHunyuanImageLatent
(#29) inicializa el lienzo en 2048×2048 con un solo lote. Hunyuan Image 2.1 está diseñado para generación 2K, por lo que se recomiendan tamaños nativos 2K para la mejor calidad.UNETLoader
(#37) carga el punto de control FP8 para reducir el VRAM mientras se preserva la fidelidad, luego alimenta a KSampler
(#3) para la eliminación de ruido.VAELoader
(#34) trae el VAE de Hunyuan Image 2.1, y VAEDecode
(#8) reconstruye la imagen final del latente muestreado con el esquema de compresión 32× del modelo.SaveImage
(#9) escribe el resultado en el directorio elegido. Establece un prefijo claro para el nombre de archivo si planeas iterar entre semillas o indicaciones.DualCLIPLoader
(#33)Este nodo carga el par de codificadores de texto que Hunyuan Image 2.1 espera. Mantén el tipo de modelo configurado para Hunyuan, y selecciona Qwen2.5‑VL‑7B y ByT5 Small para combinar un fuerte entendimiento de escena con manejo de texto consciente de glifos. Si iteras en estilo, ajusta la indicación positiva en conjunto con la guía en lugar de cambiar codificadores.
CLIPTextEncode
(#6 y #7)Estos nodos convierten tus indicaciones positivas y negativas en condicionamiento. Mantén la indicación positiva concisa en la parte superior, luego añade pistas de lente, iluminación y estilo. Usa la indicación negativa para suprimir artefactos como extremidades extra o texto ruidoso; recórtala si la encuentras demasiado restrictiva para tu concepto.
EmptyHunyuanImageLatent
(#29)Define la resolución y lote de trabajo. El predeterminado 2048×2048 se alinea con la capacidad nativa 2K de Hunyuan Image 2.1. Para otras proporciones, elige pares de ancho y altura amigables con el modelo y considera aumentar ligeramente los pasos si te alejas mucho del cuadrado.
KSampler
(#3)Impulsa el proceso de eliminación de ruido con Hunyuan Image 2.1. Aumenta los pasos cuando necesites un micro-detalle más fino, disminúyelos para borradores rápidos. Aumenta la guía para una adherencia más fuerte a la indicación pero ten cuidado con la sobresaturación o rigidez; redúcelo para más variación natural. Cambia semillas para explorar composiciones sin cambiar tu indicación.
UNETLoader
(#37)Carga el UNet de Hunyuan Image 2.1. El punto de control FP8 incluido mantiene el uso de memoria moderado para la salida 2K. Si tienes VRAM suficiente y quieres el máximo margen para configuraciones agresivas, considera una variante de mayor precisión del mismo modelo de los lanzamientos oficiales.
VAELoader
(#34) y VAEDecode
(#8)Estos nodos deben coincidir con la versión de Hunyuan Image 2.1 para decodificar correctamente. El VAE de alta compresión del modelo es clave para la generación rápida 2K; emparejar el VAE correcto evita cambios de color y texturas bloqueadas. Si cambias el modelo base, siempre actualiza el VAE en consecuencia.
Este flujo de trabajo implementa y se basa en los siguientes trabajos y recursos. Agradecemos a @Ai Verse y Hunyuan por Hunyuan Image 2.1 Demo por sus contribuciones y mantenimiento. Para detalles autorizados, por favor consulta la documentación y los repositorios originales enlazados a continuación.
Nota: El uso de los modelos, conjuntos de datos y código referenciados está sujeto a las respectivas licencias y términos proporcionados por sus autores y mantenedores.
RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Playground, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.