FLUX.2 LoRA ComfyUI 推理:与训练匹配的 AI Toolkit LoRA 输出与 FLUX.2 Dev 管道#
这个生产就绪的 RunComfy 工作流通过 RC FLUX.2 Dev (Flux2Pipeline) 在 ComfyUI 中运行 FLUX.2 Dev LoRA 推理(管道级别对齐,而不是通用采样器图)。RunComfy 构建并开源了这个自定义节点——参见 runcomfy-com repositories——您可以通过 lora_path 和 lora_scale 控制适配器应用。
注意:此工作流需要 3XL 机器运行。
为什么 FLUX.2 LoRA ComfyUI 推理在 ComfyUI 中通常看起来不同#
AI Toolkit 训练预览通过一个模型特定的 FLUX.2 管道呈现,其中文本编码、调度和 LoRA 注入设计为协同工作。在 ComfyUI 中,通过不同的图(或不同的 LoRA 加载路径)重建 FLUX.2 可能会改变这些交互,因此即使复制相同的提示、步骤、CFG 和种子,仍然会产生可见漂移。RunComfy RC 管道节点通过在 Flux2Pipeline 中端到端执行 FLUX.2 并在该管道内应用您的 LoRA 来弥合这一差距,使推理与预览行为保持一致。来源:RunComfy 开源 repositories。
如何使用 FLUX.2 LoRA ComfyUI 推理工作流#
步骤 1:获取 LoRA 路径并将其加载到工作流中(2 种选择)#
⚠️ 重要 · 需要 FLUX.2 访问权限和 Hugging Face 令牌#
FLUX.2 Dev 模型需要在 Hugging Face 上的明确访问授权。
在运行此工作流之前:
- 确保您的 Hugging Face 账户已被授予 FLUX.2 (Dev) 访问权限
- 创建一个 Hugging Face 访问令牌
- 将您的令牌粘贴到 Load Pipeline 节点上的
hf_token字段中
没有有效的令牌和适当的模型访问,工作流将无法运行。有关分步说明,请参见 Hugging Face token for FLUX.2。
选项 A — RunComfy 训练结果 → 下载到本地 ComfyUI:
- 前往 Trainer → LoRA Assets
- 找到您想要使用的 LoRA
- 点击右侧的 ⋮(三点) 菜单 → 选择 复制 LoRA 链接
- 在 ComfyUI 工作流页面,将复制的链接粘贴到 UI 右上角的 下载 输入字段中
- 在点击下载之前,确保目标文件夹设置为 ComfyUI > models > loras(此文件夹必须被选择为下载目标)
- 点击 下载——这将确保 LoRA 文件被保存到正确的
models/loras目录中 - 下载完成后,刷新页面
- LoRA 现在出现在工作流中的 LoRA 选择下拉菜单中——选择它

选项 B — 直接 LoRA URL(覆盖选项 A):
- 将 直接
.safetensors下载 URL 粘贴到 LoRA 节点的path / url输入字段中 - 当此处提供 URL 时,它覆盖选项 A——工作流在运行时直接从 URL 加载 LoRA
- 不需要本地下载或文件放置
提示:确认 URL 解析到实际的 .safetensors 文件(而不是登录页或重定向)。

步骤 2:根据您的训练样本设置匹配推理参数#
在 LoRA 节点中,选择您的适配器在 lora_path(选项 A),或将直接 .safetensors 链接粘贴到 path / url(选项 B 覆盖下拉菜单)。然后将 lora_scale 设置为您在训练预览中使用的相同强度,并从那里进行调整。
剩余参数在 Generate 节点(以及根据图的不同,Load Pipeline 节点)上:
prompt:您的文本提示(如果您在训练中使用了触发词,请包含它们)width/height:输出分辨率;匹配您的训练预览大小以获得最清晰的比较(建议使用 FLUX.2 的 16 的倍数)sample_steps:推理步骤数(25 是常见的默认值)guidance_scale:CFG/引导值(4.0 是常见的默认值)seed:固定种子以重现;更改它以探索变化seed_mode(仅在存在时):选择fixed或randomizenegative_prompt(仅在存在时):在此工作流中,FLUX.2 是引导蒸馏的,因此忽略负提示hf_token:Hugging Face 访问令牌;FLUX.2 Dev 模型下载所需(将其粘贴在 Load Pipeline 节点上)
训练对齐提示:如果您在训练期间自定义了采样值(seed、guidance_scale、sample_steps、触发词、分辨率),请在此处镜像这些确切的值。如果您在 RunComfy 上进行了训练,请打开 Trainer → LoRA Assets > Config 查看解析的 YAML 并将预览/样本设置复制到工作流节点中。

步骤 3:运行 FLUX.2 LoRA ComfyUI 推理#
点击 Queue/Run——SaveImage 节点将结果写入您的 ComfyUI 输出文件夹。
快速检查清单:
- ✓ LoRA 要么:下载到
ComfyUI/models/loras(选项 A),要么通过直接.safetensorsURL 加载(选项 B) - ✓ 本地下载后刷新页面(仅限选项 A)
- ✓ 推理参数匹配训练
sample配置(如果自定义)
如果以上内容均正确,此处的推理结果应与您的训练预览非常接近。
FLUX.2 LoRA ComfyUI 推理故障排除#
大多数 FLUX.2 “训练预览与 ComfyUI 推理” 差距来自 管道级别的差异(模型的加载方式、调度方式以及 LoRA 的合并方式),而不是单个错误的旋钮。 这个 RunComfy 工作流通过端到端运行 RC FLUX.2 Dev (Flux2Pipeline) 并通过 lora_path / lora_scale 在 该管道内 应用您的 LoRA,恢复了最接近的“与训练匹配”的基线(而不是堆叠通用加载器/采样器节点)。
(1) Flux.2 与 Lora 错误:“mul_cuda” 未实现 'Float8_e4m3fn'#
为什么会发生 这通常发生在 FLUX.2 使用 Float8/FP8 权重(或混合精度量化)加载,并且通过 通用 ComfyUI LoRA 路径 应用 LoRA 时。LoRA 合并可能会强制执行不支持的 Float8 操作(或混合 Float8 + BF16 提升),这会触发 mul_cuda Float8 运行时错误。
如何修复(推荐)
- 通过 RC FLUX.2 Dev (Flux2Pipeline) 运行推理,并仅通过
lora_path/lora_scale加载适配器,以便 LoRA 合并发生在 AI Toolkit 对齐的管道 中,而不是通过堆叠的通用 LoRA 加载器。 - 如果您在非 RC 图中进行调试:避免在 Float8/FP8 扩散权重上应用 LoRA。在添加 LoRA 之前,为 FLUX.2 使用 BF16/FP16 兼容 的加载路径。
(2) LoRA 形状不匹配应快速失败而不是破坏 GPU 状态并导致 OOM/系统不稳定#
为什么会发生 这几乎总是 基础不匹配:LoRA 是为不同的模型系列(例如 FLUX.1)训练的,但正在应用于 FLUX.2 Dev。您通常会看到许多 lora key not loaded 行,然后是形状不匹配;在最坏的情况下,会话可能会变得不稳定并以 OOM 结束。
如何修复(推荐)
- 确保 LoRA 是专门为
black-forest-labs/FLUX.2-dev使用 AI Toolkit 训练的(FLUX.1 / FLUX.2 / Klein 变体不可互换)。 - 保持 LoRA 的图“单路径”:仅通过工作流的
lora_path输入加载适配器,让 Flux2Pipeline 处理合并。不要并行堆叠额外的通用 LoRA 加载器。 - 如果您已经遇到不匹配并且 ComfyUI 之后开始产生不相关的 CUDA/OOM 错误,请重新启动 ComfyUI 进程以完全重置 GPU + 模型状态,然后使用兼容的 LoRA 重试。
(3) Flux.2 Dev - 使用 LoRAs 使推理时间增加一倍以上#
为什么会发生 当 LoRA 路径强制额外的修补/去量化工作或在比基础模型单独应用权重的速度较慢的代码路径中应用权重时,LoRA 可能会使 FLUX.2 Dev 慢得多。
如何修复(推荐)
- 使用此工作流的 RC FLUX.2 Dev (Flux2Pipeline) 路径,并通过
lora_path/lora_scale传递您的适配器。在此设置中,LoRA 在 管道加载期间合并一次(AI Toolkit 风格),因此 每步采样成本 保持接近基础模型。 - 当您追求与预览匹配的行为时,避免堆叠多个 LoRA 加载器或混合加载路径。保持为 一个
lora_path+ 一个lora_scale直到基线匹配。
注意 在此 FLUX.2 Dev 工作流中,FLUX.2 是引导蒸馏的,因此即使存在 UI 字段,管道也可能会忽略 negative_prompt——首先使用提示措辞 + guidance_scale + lora_scale 匹配预览。
现在运行 FLUX.2 LoRA ComfyUI 推理#
打开工作流,设置 lora_path,并点击 Queue/Run 以获取接近您的 AI Toolkit 训练预览的 FLUX.2 Dev LoRA 结果。

