Este flujo de trabajo lleva ByteDance USO a ComfyUI para creadores que desean personajes fieles a la identidad y transferencia de estilo precisa en un solo lugar. Construido sobre FLUX.1‑dev, admite generación basada en sujeto, estilo y combinada para que puedas colocar un personaje en nuevas escenas manteniendo la semejanza, aplicar estilos de imágenes de referencia o hacer ambas cosas a la vez.
Usa ByteDance USO cuando necesites una fuerte coherencia del sujeto con un control de estilo flexible y de alta calidad. El gráfico incluye dos ramas complementarias: una ruta de sujeto+estilo que se condiciona en una imagen de identidad, y una ruta impulsada por indicaciones que se puede utilizar con o sin referencias de estilo. Ambas rutas guardan imágenes de manera independiente para que puedas comparar resultados rápidamente.
El gráfico tiene dos ramas que pueden ejecutarse de manera independiente. La rama superior usa una imagen de identidad más referencias de estilo; la rama inferior está impulsada por indicaciones y puede incluir opcionalmente referencias de estilo. Genera desde cualquiera de las ramas o ambas.
Este paso inicializa FLUX.1‑dev, el ByteDance USO LoRA, el proyector USO y el codificador de visión SigCLIP. Prepara el modelo base para la guía unificada de estilo y sujeto. Ambas ramas cargan el mismo conjunto para que puedas ejecutar flujos de trabajo de sujeto+estilo o indicaciones sin reconfigurar modelos. Una vez cargado, el flujo del modelo está listo para los procesadores de referencia de USO.
Proporciona una imagen de identidad limpia de tu personaje. El flujo de trabajo la escala a un tamaño de trabajo adecuado y la codifica en un latente que preserva características faciales o de personaje clave. Este latente se fusiona con tu indicación para que ByteDance USO pueda colocar al sujeto en nuevas escenas manteniendo la identidad. Omite este paso si deseas generación solo de estilo o solo de texto.
Agrega una o dos imágenes de estilo para guiar la paleta, los materiales y el trabajo de pincel. Cada imagen se codifica con el modelo de visión y se aplica a través de los nodos de referencia de estilo de USO, que superponen influencias de estilo en el modelo cargado. El orden importa cuando se usan dos referencias, ya que la segunda referencia se aplica después de la primera. Puedes omitir este grupo para ejecutar un pase solo impulsado por el sujeto o solo de texto.
Escribe una indicación impulsada por la intención para composición, ambiente y detalles. En la rama de sujeto+estilo, tu indicación se combina con el latente de identidad y la guía de USO para que el texto, el sujeto y el estilo tiren en la misma dirección. En la rama impulsada por indicaciones, el texto solo (opcionalmente con referencias de estilo) dirige la imagen. Mantén las indicaciones específicas; evita contradecir el estilo elegido.
Elige la resolución objetivo para la generación. El tamaño elegido influye en la compacidad de la composición y la densidad de detalle, especialmente para retratos frente a tomas de cuerpo completo. Si la VRAM está limitada, comienza más pequeño y escala más tarde. Ambas ramas exponen un nodo simple de tamaño de imagen para que puedas adaptar el aspecto y la fidelidad a tu caso de uso.
Cada rama muestrea con un muestreador estándar, decodifica a RGB y guarda en su propia salida. Normalmente obtendrás dos imágenes por ejecución: un resultado de sujeto estilizado y un resultado impulsado por indicaciones. Itera ajustando la indicación o intercambiando referencias; vuelve a muestrear para explorar alternativas o fija la semilla para repetibilidad.
USOStyleReference
(#56)Aplica una imagen de estilo al flujo del modelo actual usando el proyector USO y las características de CLIP‑Vision. Usa una referencia para un aspecto fuerte y coherente o encadena dos para mezclas matizadas; la segunda referencia refina la primera. Si el estilo domina demasiado, intenta una referencia única y más limpia o simplifica su contenido.
ReferenceLatent
(#44)Inyecta el latente del sujeto codificado en la ruta de acondicionamiento para que ByteDance USO preserve la identidad. Funciona mejor con fotos de identidad despejadas que muestren claramente la cara del personaje o sus características definitorias. Si la identidad se desvanece, alimenta una referencia más completa o reduce las señales de estilo conflictivas.
FluxKontextMultiReferenceLatentMethod
(#41)Combina múltiples señales de referencia dentro de la vía de contexto FLUX. Aquí es donde el contexto del sujeto y la indicación se equilibran antes del muestreo. Si los resultados parecen demasiado restringidos, relaja las referencias; si se desvían, fortalece la imaginería del sujeto o simplifica la indicación.
FluxGuidance
(#35)Controla la fuerza de la guía de texto en relación con las señales de referencia. Valores más bajos permiten que el sujeto/estilo lideren; valores más altos imponen más fuertemente la indicación. Ajusta cuando veas que la indicación se ajusta poco (aumenta la guía) o que el estilo/sujeto se anulan (reduce la guía).
ImageScaleToMaxDimension
(#109)Prepara la imagen de identidad para la extracción de características estables. Los tamaños máximos más pequeños favorecen una composición más amplia; los tamaños más grandes ayudan cuando la referencia es un retrato ajustado y necesitas señales de identidad más nítidas. Ajusta según si tu referencia de sujeto es de cuerpo completo o un retrato.
EasyCache
(#95)Acelera la inferencia reutilizando estados intermedios cuando los cambios son menores. Ideal para ajustes de indicaciones y rápida iteración, pero puede reducir ligeramente los microdetalles. Desactívalo para renderizados finales de la más alta calidad.
KSampler
(#31)Ejecuta los pasos de difusión y controla la estocasticidad mediante la elección de semilla y muestreador. Aumenta los pasos para obtener más detalles, o bloquea la semilla para reproducir un aspecto mientras cambias las referencias. Si las texturas parecen ruidosas, intenta un muestreador diferente o menos pasos con una guía de estilo más fuerte.
Este flujo de trabajo implementa y se basa en los siguientes trabajos y recursos. Agradecemos a ByteDance por el modelo USO y al equipo de ComfyUI por el tutorial del flujo de trabajo nativo de ByteDance USO ComfyUI por sus contribuciones y mantenimiento. Para obtener detalles autorizados, consulta la documentación original y los repositorios vinculados a continuación.
Nota: El uso de los modelos, conjuntos de datos y código referenciados está sujeto a las licencias y términos respectivos proporcionados por sus autores y mantenedores.
RunComfy es la principal ComfyUI plataforma, ofreciendo ComfyUI en línea entorno y servicios, junto con flujos de trabajo de ComfyUI con impresionantes imágenes. RunComfy también ofrece AI Playground, permitiendo a los artistas aprovechar las últimas herramientas de AI para crear arte increíble.