ComfyUI  >  工作流  >  UNO ByteDance | 一致的主体和对象生成

UNO ByteDance | 一致的主体和对象生成

UNO 工作流程为 ComfyUI 带来了 ByteDance 的先进图像生成技术至 RunComfy。这个强大的模型在提供参考主体时,擅长创建高度一致的图像。无论您需要单主体生成(不同场景中的角色)还是主体-对象组合(在一张图像中结合特定对象的主体),UNO ByteDance 都能提供卓越的保真度和质量。即使在较小的云机器上,该模型也能有效工作,使 ByteDance 的 UNO 图像定制对所有人都可访问。非常适合产品可视化、角色插图、创意组合等等。

ComfyUI UNO ByteDance Subject-Object Generation 工作流程

UNO ByteDance for ComfyUI | Consistent Subject Generation
想要运行这个工作流吗?
  • 完全可操作的工作流
  • 没有缺失的节点或模型
  • 无需手动设置
  • 具有惊艳的视觉效果

ComfyUI UNO ByteDance Subject-Object Generation 示例

uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_1.webp
uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_2.webp
uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_3.webp
uno-bytedance-for-comfyui-consistent-subject-generation-1218-example_4.webp

ComfyUI UNO ByteDance Subject-Object Generation 描述

ComfyUI UNO 描述

1. 什么是 ByteDance 的 ComfyUI UNO?

ComfyUI UNO 工作流程将 ByteDance 的 Universal aNd cOntrollable (UNO) 模型集成到 ComfyUI 环境中。由 ByteDance 的智能创作团队开发,UNO 代表了基于创新的 "Less-to-More" 泛化范式的主体驱动图像生成技术的重大进步。UNO 在保持参考主体的身份特征方面,实现了灵活且高保真的图像生成,在各种背景和场景中表现出显著的一致性。

2. ByteDance 的 ComfyUI UNO 的优势:

  • 卓越的主体一致性: UNO 在不同背景下保持出色的主体相似性。
  • 主体-对象控制: 与许多替代方案不同,UNO 擅长同时处理主体参考和对象参考,而不会产生身份混淆。
  • 通用兼容性: UNO 适用于多种类型的主体 - 人物、物体、玩具、标志等。
  • 资源效率: UNO 即使在有限的 VRAM 资源下(24GB 也能很好地工作),也能提供专业质量的结果。
  • 灵活的实施: UNO 包含单主体和主体-对象生成的工作流程。

3. 如何使用 ByteDance 的 ComfyUI UNO

3.1 工作流程设置

UNO 工作流程有两个主要配置:

顶部组 - 主体-对象生成:

  • 该配置允许您输入参考主体图像和参考对象图像,这些图像将根据您的文本提示在生成的场景中组合。

底部组 - 单主体生成:

  • 该配置使用单个参考图像,并在不同背景中生成该主体的新图像。

3.2 使用 ByteDance 的 UNO 的生成过程

基本设置:

  1. 加载参考图像:
    • 对于主体-对象工作流程(顶部组):上传一个主体参考图像和一个对象参考图像
    • 对于单主体工作流程(底部组):上传一个参考图像
  2. 设置 ByteDance 的 UNO 文本提示:
    • 为您期望的场景编写描述性提示,包括参考主体/对象应如何出现
  3. 调整 ByteDance 的 UNO 参数:
    • Width/Height: 确定输出分辨率(推荐 768×1024 或 1024×1024)
    • Guidance: 控制 ByteDance 的 UNO 生成与您的文本提示的贴合程度(推荐 3.5-4.0)
    • Num_steps: 较高的值(20+)能让 ByteDance 的 UNO 生成更一致的结果,尤其是人脸
    • Seed: 设置特定种子以便重现或随机化以获得 ByteDance 的 UNO 输出的多样性
  4. 使用 ByteDance 的 UNO 生成图像:
    • 点击 "Queue Prompt" 以运行 ByteDance UNO 工作流程
    • 在 "Save Image" 节点中查看结果

3.3 ByteDance 的 UNO 参数参考

UNO Loadmodel 节点:

  • model_type: 确定使用哪个 ByteDance UNO 模型变体
    • flux-dev: 标准 ByteDance UNO 模型,具有良好的质量和性能平衡
    • flux-schnell: 较快的 ByteDance UNO 模型变体,质量略低

3.4 使用 ByteDance 的 UNO 获得最佳结果的提示

UNO 的主体选择:

  • 选择清晰、光线充足的参考图像,其中主体突出
  • 对于面孔/人物,正面图像和中性表情效果最佳
  • 对于物体,背景干扰最小的清晰图像是理想的

UNO 的提示工程:

  • 对匹配您参考图像的主体描述要具体
  • 描述 ByteDance 的 UNO 应生成的场景、光线和构图
  • 包括对特定主体的引用(例如,"年轻男子", "复古自行车")
  • 为获得最佳 UNO 结果,提示应简洁但详细

4. ByteDance 的 UNO 技术信息

ByteDance UNO 技术基于 FLUX 模型,并利用 DiT (Diffusion Transformer) 架构,具有若干关键增强功能:

  • Universal Rotary Position Embedding (UnoPE): 在 ByteDance 的 UNO 中,一种专门的机制,帮助模型区分参考主体和对象,显著减少属性混淆。
  • Progressive Cross-Modal Alignment: 训练方法,能够让 ByteDance 的 UNO 处理日益复杂的多条件控制。
  • Universal Customization: ByteDance 的 UNO 能够处理多样的主体类型,无需专门训练。

5. 致谢

该工作流程由 UNO 提供支持,由 ByteDance 的 智能创作团队(Shaojin Wu, Mengqi Huang, Wenxu Wu, Yufeng Cheng, Fei Ding, 和 Qian He)开发。ByteDance 的 UNO 的 ComfyUI 集成由社区贡献者提供,将 ByteDance 的突破性研究转化为可访问的工作流程。

有关 ByteDance 的 UNO 的更多信息,请访问

想要更多 ComfyUI 工作流吗?

RunComfy
版权 2025 RunComfy. 保留所有权利。

RunComfy 是首选的 ComfyUI 平台,提供 ComfyUI 在线 环境和服务,以及 ComfyUI 工作流 具有惊艳的视觉效果。 RunComfy还提供 AI Playground, 帮助艺术家利用最新的AI工具创作出令人惊叹的艺术作品。