Z-Image Basis LoRA ComfyUI Inferenz: training-angepasste Generierung mit AI Toolkit LoRAs
Dieser produktionsbereite RunComfy-Workflow ermöglicht Ihnen das Ausführen von AI Toolkit–trainierten Z-Image LoRA-Adaptern in ComfyUI mit training-übereinstimmenden Ergebnissen. Er basiert auf RC Z-Image (RCZimage)—einem benutzerdefinierten Knoten auf Pipeline-Ebene, der von RunComfy als Open Source zur Verfügung gestellt wird (source)—und umschließt die Tongyi-MAI/Z-Image Inferenzpipeline, anstatt sich auf einen generischen Sampler-Graphen zu verlassen. Ihr Adapter wird über lora_path und lora_scale innerhalb dieser Pipeline eingespeist, was die Anwendung der LoRA konsistent mit der Art und Weise hält, wie das AI Toolkit Trainingsvorschauen erzeugt.
Warum die Z-Image Basis LoRA ComfyUI Inferenz in ComfyUI oft anders aussieht
AI Toolkit Trainingsvorschauen werden von einer modellspezifischen Inferenzpipeline gerendert—Scheduler-Konfiguration, Konditionierungsfluss und LoRA-Einspeisung erfolgen alle innerhalb dieser Pipeline. Ein Standard-ComfyUI-Sampler-Graph fügt diese Teile anders zusammen, sodass selbst identische Prompts, Seeds und Schrittzahlen merklich unterschiedliche Ausgaben erzeugen können. Die Diskrepanz wird nicht durch einen einzigen falschen Parameter verursacht; es handelt sich um eine Pipeline-Fehlanpassung. RCZimage stellt das training-übereinstimmende Verhalten wieder her, indem es die Z-Image-Pipeline direkt umschließt und Ihre LoRA darin anwendet. Implementierungsreferenz: `src/pipelines/z_image.py`.
So verwenden Sie den Z-Image Basis LoRA ComfyUI Inferenz-Workflow
Schritt 1: Holen Sie sich den LoRA-Pfad und laden Sie ihn in den Workflow (2 Optionen)
Option A — RunComfy Trainingsergebnis → Download auf lokales ComfyUI:
- Gehen Sie zu Trainer → LoRA Assets
- Finden Sie die LoRA, die Sie verwenden möchten
- Klicken Sie auf das ⋮ (Dreipunktmenü) rechts → wählen Sie LoRA-Link kopieren
- Fügen Sie auf der ComfyUI-Workflow-Seite den kopierten Link in das Download-Eingabefeld in der oberen rechten Ecke der Benutzeroberfläche ein
- Bevor Sie auf Download klicken, stellen Sie sicher, dass der Zielordner auf ComfyUI → models → loras eingestellt ist (dieser Ordner muss als Download-Ziel ausgewählt sein)
- Klicken Sie auf Download — dies speichert die LoRA-Datei im richtigen
models/lorasVerzeichnis - Nach Abschluss des Downloads, aktualisieren Sie die Seite
- Die LoRA erscheint nun im LoRA-Auswahl-Dropdown im Workflow — wählen Sie sie aus

Option B — Direkte LoRA URL (überschreibt Option A):
- Fügen Sie die direkte
.safetensorsDownload-URL in daspath / urlEingabefeld des LoRA-Knotens ein - Wenn hier eine URL angegeben wird, überschreibt sie Option A — der Workflow lädt die LoRA direkt von der URL zur Laufzeit
- Kein lokaler Download oder Dateiplatzierung erforderlich
Tipp: Die URL muss auf die tatsächliche .safetensors Datei zeigen, nicht auf eine Webseite oder Weiterleitung.

Schritt 2: Passen Sie die Inferenzparameter an Ihre Trainingsbeispiel-Einstellungen an
Stellen Sie lora_scale am LoRA-Knoten ein — beginnen Sie mit der gleichen Stärke, die Sie während der Trainingsvorschauen verwendet haben, und passen Sie sie bei Bedarf an.
Die verbleibenden Parameter befinden sich auf dem Generate-Knoten:
prompt— Ihr Textprompt; fügen Sie alle Triggerwörter hinzu, die Sie während des Trainings verwendet habennegative_prompt— leer lassen, es sei denn, Ihr Trainings-YAML enthielt Negativeswidth/height— Ausgabeauflösung; passen Sie Ihre Vorschaugröße für einen direkten Vergleich an (Vielfache von 32)sample_steps— Anzahl der Inferenzschritte; Z-Image Basis standardmäßig 30 (verwenden Sie die gleiche Anzahl aus Ihrer Vorschaukonfiguration)guidance_scale— CFG-Stärke; Standard ist 4.0 (spiegeln Sie zunächst Ihren Trainingsvorschauwert)seed— fixieren Sie einen Seed, um spezifische Ausgaben zu reproduzieren; ändern Sie ihn, um Variationen zu erkundenseed_mode— wählen Siefixedoderrandomizehf_token— Hugging Face Token; nur erforderlich, wenn das Basismodell oder das LoRA-Repo gesperrt/privat ist
Training-Alignment-Tipp: Wenn Sie während des Trainings Sampling-Werte angepasst haben, kopieren Sie diese genauen Werte in die entsprechenden Felder. Wenn Sie auf RunComfy trainiert haben, öffnen Sie Trainer → LoRA Assets → Config, um das aufgelöste YAML zu sehen und Vorschau-/Beispieleinstellungen in den Knoten zu kopieren.

Schritt 3: Führen Sie die Z-Image Basis LoRA ComfyUI Inferenz aus
Klicken Sie auf Queue/Run — der SaveImage-Knoten schreibt Ergebnisse automatisch in Ihren ComfyUI-Ausgabeordner.
Kurze Checkliste:
- ✅ LoRA ist entweder: in
ComfyUI/models/lorasheruntergeladen (Option A) oder über eine direkte.safetensorsURL geladen (Option B) - ✅ Seite nach lokalem Download aktualisiert (nur Option A)
- ✅ Inferenzparameter stimmen mit der Trainings-
sample-Konfiguration überein (falls angepasst)
Wenn alles oben korrekt ist, sollten die Inferenzresultate hier Ihren Trainingsvorschauen nahekommen.
Fehlerbehebung bei der Z-Image Basis LoRA ComfyUI Inferenz
Die meisten Unterschiede zwischen “Trainingsvorschau und ComfyUI Inferenz” für Z-Image Basis (Tongyi-MAI/Z-Image) entstehen durch Pipeline-Ebene Unterschiede (wie das Modell geladen wird, welche Standard-/Scheduler verwendet werden und wo/wie die LoRA eingespeist wird). Für AI Toolkit–trainierte Z-Image Basis LoRAs ist der zuverlässigste Weg, um zurück zu training-angepasstem Verhalten in ComfyUI zu gelangen, die Generierung über RCZimage (den RunComfy-Pipeline-Wrapper) auszuführen und die LoRA über lora_path / lora_scale innerhalb dieser Pipeline einzuspeisen.
(1) Beim Verwenden von Z-Image LoRA mit ComfyUI erscheint die Nachricht "lora key not loaded".
Warum dies passiert Dies bedeutet normalerweise, dass Ihre LoRA gegen ein anderes Modul/Schlüssel-Layout trainiert wurde, als das, was Ihr aktueller ComfyUI Z-Image Loader erwartet. Bei Z-Image kann der „gleiche Modellname“ immer noch unterschiedliche Schlüsselkonventionen beinhalten (z.B. original/diffusers-artig vs Comfy-spezifische Benennung), und das reicht aus, um „key not loaded“ auszulösen.
Wie man das behebt (empfohlen)
- Führen Sie die Inferenz über RCZimage (den Pipeline-Wrapper des Workflows) aus und laden Sie Ihren Adapter über
lora_pathauf dem RCAITKLoRA / RCZimage-Pfad, anstatt ihn über einen separaten generischen Z-Image LoRA Loader einzuspeisen. - Halten Sie den Workflow format-konsistent: Z-Image Basis LoRA mit AI Toolkit trainiert → mit der AI Toolkit-angepassten RCZimage-Pipeline inferieren, sodass Sie nicht auf ComfyUI-seitige Schlüssel-Neuzuordnungen/Konverter angewiesen sind.
(2) Fehler traten während der VAE-Phase auf, wenn der ZIMAGE LORA Loader (nur Modell) verwendet wurde.
Warum dies passiert Einige Benutzer berichten, dass das Hinzufügen des ZIMAGE LoRA Loaders (nur Modell) zu erheblichen Verlangsamungen und späteren Fehlern in der endgültigen VAE-Dekodierungsphase führen kann, selbst wenn der Standard-Z-Image-Workflow ohne den Loader einwandfrei läuft.
Wie man das behebt (benutzerbestätigt)
- Entfernen Sie den ZIMAGE LORA Loader (nur Modell) und führen Sie den Standard-Z-Image-Workflow-Pfad erneut aus.
- In diesem RunComfy-Workflow ist das äquivalente „sichere Baseline“: Verwenden Sie RCZimage +
lora_path/lora_scale, sodass die LoRA-Anwendung innerhalb der Pipeline bleibt, um den problematischen „nur Modell LoRA Loader“-Pfad zu vermeiden.
(3) Z-Image Comfy-Format stimmt nicht mit dem ursprünglichen Code überein
Warum dies passiert Z-Image in ComfyUI kann ein Comfy-spezifisches Format beinhalten (einschließlich Schlüsselbenennungsunterschiede zu „ursprünglichen“ Konventionen). Wenn Ihre LoRA mit AI Toolkit auf einer Namens-/Layout-Konvention trainiert wurde und Sie versuchen, sie in ComfyUI mit einer anderen zu verwenden, werden Sie eine teilweise/fehlgeschlagene Anwendung und „Es läuft, sieht aber falsch aus“-Verhalten sehen.
Wie man das behebt (empfohlen)
- Mischen Sie keine Formate, wenn Sie versuchen, Trainingsvorschauen zu erreichen. Verwenden Sie RCZimage, sodass die Inferenz die Z-Image-Pipeline in der gleichen „Familie“ ausführt, die AI Toolkit-Vorschauen verwenden, und injizieren Sie die LoRA darin über
lora_path/lora_scale. - Wenn Sie unbedingt einen Comfy-format Z-Image-Stack verwenden müssen, stellen Sie sicher, dass Ihre LoRA im gleichen Format vorliegt, das von diesem Stack erwartet wird (ansonsten stimmen die Schlüssel nicht überein).
(4) Z-Image oom unter Verwendung von lora
Warum dies passiert Z-Image + LoRA kann je nach Präzision/Quantisierung, Auflösung und Loader-Pfad den VRAM überlasten. Einige Berichte erwähnen OOM auf 12GB VRAM-Setups, wenn LoRA mit niedrigpräzisen Modi kombiniert wird.
Wie man das behebt (sichere Baseline)
- Validieren Sie zuerst Ihre Baseline: Führen Sie Z-Image Basis ohne LoRA bei Ihrer Zielauflösung aus.
- Fügen Sie dann die LoRA über RCZimage (
lora_path/lora_scale) hinzu und halten Sie die Vergleiche kontrolliert (gleichewidth/height,sample_steps,guidance_scale,seed). - Wenn Sie immer noch OOM erreichen, reduzieren Sie zuerst die Auflösung (Z-Image ist empfindlich gegenüber der Pixelanzahl), dann ziehen Sie in Betracht,
sample_stepszu reduzieren, und führen Sie erst dann höhere Einstellungen wieder ein, nachdem die Stabilität bestätigt wurde. In RunComfy können Sie auch auf eine größere Maschine wechseln.
Führen Sie jetzt die Z-Image Basis LoRA ComfyUI Inferenz aus
Öffnen Sie den RunComfy Z-Image Basis LoRA ComfyUI Inference Workflow, setzen Sie Ihren lora_path, und lassen Sie RCZimage die ComfyUI-Ausgabe mit Ihren AI Toolkit-Trainingsvorschauen abstimmen.
