AI Toolkit LoRA Training Guides

Open‑source AI Toolkit Inference Pipeline (Diffusers)

Um Drift zwischen AI‑Toolkit‑Samples und Inferenz zu beheben, gibt es eine referenzierbare Diffusers‑Pipeline mit AI‑Toolkit‑Sampling. Open‑source. repo: runcomfy-com/ai-toolkit-inference

Train Diffusion Models with Ostris AI Toolkit

Wenn du LoRAs mit Ostris AI Toolkit trainierst, ist dir das wahrscheinlich schon passiert:

  • Deine AI-Toolkit-Trainings-Samples/Previews sehen super aus.
  • Dieselbe LoRA sieht bei der Inferenz in ComfyUI, Diffusers oder einem anderen Stack plötzlich anders aus.

In den meisten Fällen ist die LoRA nicht „kaputt“ – dein Inference-Pipeline ist einfach nicht dieselbe.

Kleine Unterschiede summieren sich schnell: Basismodell-Variante, Scheduler-/Step-Semantik, VAE/CLIP-Defaults, Auflösungs‑Snapping und sogar wie die LoRA angewendet wird (Adapter vs. Merge/Fuse, Modellfamilien‑Eigenheiten).

Damit AI‑Toolkit‑Inference leichter reproduzierbar, auditierbar und debuggbar wird, veröffentlicht RunComfy die Referenz‑Inference‑Implementierung, die wir für AI‑Toolkit‑LoRAs verwenden, als Open Source – gebaut mit Hugging Face Diffusers.

GitHub‑Repo: runcomfy-com/ai-toolkit-inference


Wofür dieses Open‑Source‑Repo gedacht ist

Nutze dieses Repo, wenn du:

  • AI‑Toolkit‑Samples/Previews außerhalb von AI Toolkit reproduzieren willst (mit derselben Inferenz‑Logik)
  • „Training‑Preview vs. Inference“‑Drift debuggen willst, indem du jeden Pipeline‑Baustein inspizierst und kontrollierst
  • Deinen eigenen Inference‑Service (z. B. hinter einer API) auf Basis von Diffusers bauen willst

Wenn dein Hauptziel nur „LoRA laufen lassen und Training‑Samples matchen“ ist, musst du den Code nicht unbedingt lesen – RunComfy liefert dasselbe Preview‑Matching auch als Managed Inference (Playground/API) und als ComfyUI‑Workflows.


Was im Repo steckt

Das Projekt ist so aufgebaut, dass das AI‑Toolkit‑Preview‑Verhalten auditierbar und reproduzierbar ist. Typischerweise enthält es:

  • Basismodell‑spezifische Diffusers‑Pipelines (Image, Edit/Control, Video – je nach Modellfamilie)
  • AI‑Toolkit‑Training‑YAML → Inference‑Settings (die YAML als „Vertrag“)
  • LoRA‑Laden + Anwenden (Adapter vs. Merge/Fuse; Binding‑Eigenheiten je Modellfamilie)
  • Auflösungs‑Snapping‑Regeln passend zu AI‑Toolkit‑Samples/Previews
  • Optional ein Async‑Server‑Beispiel (z. B. FastAPI) für Inference hinter einer API

Wie das zu RunComfy Trainer Inference passt

RunComfy nutzt dieselbe Preview‑Matching‑Idee:

  • Die exakte Basismodell‑Variante fixieren
  • Modellfamilien‑Defaults für Inference matchen
  • Dasselbe Pipeline‑Verhalten wie bei AI‑Toolkit‑Trainings‑Samples/Previews beibehalten

Du kannst diese abgestimmte Pipeline auf zwei developer‑freundliche Arten nutzen:

  • Playground / API Inference (schnell testen + integrieren)
  • ComfyUI Inference (Workflow pro Basismodell – LoRA laden und Preview‑Matching‑Ergebnisse erzeugen)

Guides:

Ready to start training?