AI Toolkit LoRA Training Guides

Pipeline open‑source de inferencia AI Toolkit (Diffusers)

Para corregir el drift “AI Toolkit samples vs inference”, RunComfy ofrece una pipeline Diffusers de referencia que coincide con el sampling de AI Toolkit. Open‑source. repo: runcomfy-com/ai-toolkit-inference

Train Diffusion Models with Ostris AI Toolkit

Si entrenas LoRAs con Ostris AI Toolkit, probablemente te ha pasado esto:

  • Tus Samples/Previews de entrenamiento en AI Toolkit se ven genial.
  • La misma LoRA se ve distinta al hacer inferencia en ComfyUI, Diffusers u otro stack.

En la mayoría de casos, la LoRA no está “rota”: lo que cambia es tu pipeline de inferencia.

Pequeñas diferencias se acumulan rápido: variante exacta del modelo base, semántica de scheduler/pasos, valores por defecto de VAE/CLIP, “snapping” de resolución e incluso cómo se aplica la LoRA (adapter vs merge/fuse y particularidades por familia).

Para que la inferencia tipo AI Toolkit sea más reproducible, auditable y depurable, RunComfy publica como open source la implementación de referencia que usamos para LoRAs de AI Toolkit, construida con Hugging Face Diffusers.

Repo en GitHub: runcomfy-com/ai-toolkit-inference


Para qué sirve este repo open source

Úsalo si quieres:

  • Reproducir los Samples/Previews de AI Toolkit fuera de AI Toolkit (con la misma lógica)
  • Depurar el “drift” entre preview de entrenamiento e inferencia controlando cada parte del pipeline
  • Construir tu propio servicio de inferencia (por ejemplo, detrás de una API) con Diffusers

Si tu objetivo principal es solo “ejecutar mi LoRA y que coincida con los Samples”, quizá no necesites leer el código: RunComfy ofrece el mismo comportamiento de “preview‑matching” como inferencia gestionada (Playground/API) y como workflows de ComfyUI.


Qué hay dentro del repo

El proyecto está pensado para que el comportamiento de preview de AI Toolkit sea auditables y reproducible. Normalmente incluye:

  • Pipelines de Diffusers por modelo base (imagen, edición/control, vídeo — según la familia)
  • YAML de entrenamiento de AI Toolkit → ajustes de inferencia (el YAML como “contrato”)
  • Carga y aplicación de LoRA (adapter vs merge/fuse; particularidades de binding por familia)
  • Reglas de snapping de resolución para igualar Samples/Previews
  • Opcional: ejemplo de servidor asíncrono (p. ej., FastAPI) para correr inferencia detrás de una API

Cómo se relaciona con RunComfy Trainer Inference

RunComfy sigue la misma idea de “preview‑matching”:

  • Fijar la variante exacta del modelo base
  • Igualar los defaults de inferencia por familia
  • Mantener el mismo comportamiento de pipeline que genera los Samples/Previews

Puedes usar ese pipeline alineado de dos maneras:

  • Playground / API (validación rápida + integración)
  • ComfyUI (un workflow por modelo base — carga tu LoRA y genera resultados que coinciden con el preview)

Guías:

Ready to start training?