AI Toolkit LoRA-Training Guides

Wan 2.2 und LTX-2 Video-OOM in AI Toolkit beheben

Praxisleitfaden zur Stabilisierung von Wan 2.2 und LTX-2 Video-LoRA-Training in AI Toolkit durch Anpassung von Frames, Batch Size, Auflösung und Preview-Einstellungen zur Vermeidung grenzwertiger Speicherkonfigurationen.

Diffusionsmodelle mit Ostris AI Toolkit trainieren

Wan 2.2 / LTX-2 OOM-Leitfaden: Sichere Frames, Batch Size und Auflösung in AI Toolkit

Beim Video-LoRA-Training ist OOM normalerweise nicht auf eine einzelne schlechte Einstellung zurückzuführen.

Es ist meist die Kombination aus:

  • zu vielen Frames
  • zu großem Auflösungs-Bucket
  • zu großer Batch
  • zu teurer Vorschau-Generierung

Deshalb fühlt sich Video-OOM inkonsistent an: Ein Lauf funktioniert, der nächste stürzt ab, obwohl „sich nichts Wichtiges geändert hat."

Dieser Leitfaden gibt Ihnen ein praktisches Speicherbudget für Wan 2.2 und LTX-2 in RunComfy AI Toolkit.


Schnell-Checkliste (hier starten)

  • Für Wan 2.2 mit Batch Size = 1 und 21–41 Frames starten
  • Für LTX-2 mit Batch Size = 1 und 49 oder 81 Frames starten
  • In Datasets die Num Frames reduzieren, bevor Sie die LR anfassen
  • In Datasets den höchsten Resolution-Bucket zuerst entfernen
  • In Sample die Vorschau-Videos günstiger halten als das Trainingsbudget
  • Wenn im Log Bus error / out of shared memory steht, ist das nicht dasselbe wie CUDA OOM

1) Zuerst: Welches Speicherproblem haben Sie?

CUDA OOM

Dieser Leitfaden ist für Fehler wie:

CUDA out of memory

OOM during training step ...

Tried to allocate ...

Shared-Memory- / DataLoader-Absturz

Wenn Ihr Log sagt:

Bus error

out of shared memory

DataLoader worker is killed

Das ist ein anderes Problem bezüglich Shared Memory (/dev/shm), nicht GPU-VRAM. Siehe Fix: DataLoader worker Bus error (/dev/shm) — Fehlerbehebung


2) Das einzige Denkmodell, das Sie wirklich brauchen

Beim Video-Training steigt der Speicherdruck hauptsächlich mit:

Frames × Auflösung × Batch Size

Wenn Sie alle drei gleichzeitig erhöhen, bauen Sie sehr wahrscheinlich einen grenzwertigen Lauf.


3) Wan 2.2: sicher vs grenzwertig vs hochriskant

Sicherer erster Lauf

  • Batch Size: 1
  • Num Frames: 21 oder 41
  • Resolution: mit 512 starten
  • Vorschau-Videos konservativ halten

Grenzwertig

  • Batch Size: 1
  • Num Frames: 81
  • Resolution: 480–512

Hochriskant

  • Batch Size ≥ 2 mit 81 Frames
  • Hochauflösungs-Buckets plus lange Clips
  • Häufige aufwendige Vorschau-Generierung

Wan Rollback-Reihenfolge

  1. Num Frames reduzieren
  2. Batch Size = 1 beibehalten
  3. Höchste Resolution entfernen
  4. Vorschaukosten reduzieren

4) LTX-2: sicher vs grenzwertig vs hochriskant

Sicherer erster Lauf

  • Batch Size: 1
  • Num Frames: 49 oder 81
  • Resolution: 512

Grenzwertig

  • Batch Size: 1
  • Num Frames: 121
  • Resolution: 512

Hochriskant

  • Batch Size ≥ 4 mit 121 Frames
  • Größere Buckets vor bewiesener Stabilität
  • Schweres Vorschau-Sampling

LTX Rollback-Reihenfolge

  1. Batch Size = 1 beibehalten
  2. Num Frames reduzieren (121 → 81 → 49)
  3. Resolution reduzieren
  4. Vorschau günstiger machen

5) Warum dieselbe Config manchmal funktioniert und manchmal OOM hat

Häufige Gründe:

  • Bucket-Spitzen (der größte Bucket bringt VRAM über das Limit)
  • Vorschau-Spitzen (Training passt, Vorschau bringt es über die Kante)
  • Grenzwertiger Speicherzustand

Eine Config, die „manchmal funktioniert", sollte als instabil behandelt werden.


Einzeiler-Zusammenfassung

Bei Wan 2.2 und LTX-2 ist Video-OOM normalerweise ein Problem aus Frames × Auflösung × Batch.

Konservativ starten, Stabilität beweisen, dann hochskalieren.

Bereit zum Starten des Trainings?