Wan 2.2 / LTX-2 OOM-Leitfaden: Sichere Frames, Batch Size und Auflösung in AI Toolkit
Beim Video-LoRA-Training ist OOM normalerweise nicht auf eine einzelne schlechte Einstellung zurückzuführen.
Es ist meist die Kombination aus:
- zu vielen Frames
- zu großem Auflösungs-Bucket
- zu großer Batch
- zu teurer Vorschau-Generierung
Deshalb fühlt sich Video-OOM inkonsistent an: Ein Lauf funktioniert, der nächste stürzt ab, obwohl „sich nichts Wichtiges geändert hat."
Dieser Leitfaden gibt Ihnen ein praktisches Speicherbudget für Wan 2.2 und LTX-2 in RunComfy AI Toolkit.
Schnell-Checkliste (hier starten)
- Für Wan 2.2 mit Batch Size = 1 und 21–41 Frames starten
- Für LTX-2 mit Batch Size = 1 und 49 oder 81 Frames starten
- In Datasets die Num Frames reduzieren, bevor Sie die LR anfassen
- In Datasets den höchsten Resolution-Bucket zuerst entfernen
- In Sample die Vorschau-Videos günstiger halten als das Trainingsbudget
- Wenn im Log Bus error / out of shared memory steht, ist das nicht dasselbe wie CUDA OOM
1) Zuerst: Welches Speicherproblem haben Sie?
CUDA OOM
Dieser Leitfaden ist für Fehler wie:
CUDA out of memory
OOM during training step ...
Tried to allocate ...
Shared-Memory- / DataLoader-Absturz
Wenn Ihr Log sagt:
Bus error
out of shared memory
DataLoader worker is killed
Das ist ein anderes Problem bezüglich Shared Memory (/dev/shm), nicht GPU-VRAM. Siehe Fix: DataLoader worker Bus error (/dev/shm) — Fehlerbehebung
2) Das einzige Denkmodell, das Sie wirklich brauchen
Beim Video-Training steigt der Speicherdruck hauptsächlich mit:
Frames × Auflösung × Batch Size
Wenn Sie alle drei gleichzeitig erhöhen, bauen Sie sehr wahrscheinlich einen grenzwertigen Lauf.
3) Wan 2.2: sicher vs grenzwertig vs hochriskant
Sicherer erster Lauf
- Batch Size: 1
- Num Frames: 21 oder 41
- Resolution: mit 512 starten
- Vorschau-Videos konservativ halten
Grenzwertig
- Batch Size: 1
- Num Frames: 81
- Resolution: 480–512
Hochriskant
- Batch Size ≥ 2 mit 81 Frames
- Hochauflösungs-Buckets plus lange Clips
- Häufige aufwendige Vorschau-Generierung
Wan Rollback-Reihenfolge
- Num Frames reduzieren
- Batch Size = 1 beibehalten
- Höchste Resolution entfernen
- Vorschaukosten reduzieren
4) LTX-2: sicher vs grenzwertig vs hochriskant
Sicherer erster Lauf
- Batch Size: 1
- Num Frames: 49 oder 81
- Resolution: 512
Grenzwertig
- Batch Size: 1
- Num Frames: 121
- Resolution: 512
Hochriskant
- Batch Size ≥ 4 mit 121 Frames
- Größere Buckets vor bewiesener Stabilität
- Schweres Vorschau-Sampling
LTX Rollback-Reihenfolge
- Batch Size = 1 beibehalten
- Num Frames reduzieren (121 → 81 → 49)
- Resolution reduzieren
- Vorschau günstiger machen
5) Warum dieselbe Config manchmal funktioniert und manchmal OOM hat
Häufige Gründe:
- Bucket-Spitzen (der größte Bucket bringt VRAM über das Limit)
- Vorschau-Spitzen (Training passt, Vorschau bringt es über die Kante)
- Grenzwertiger Speicherzustand
Eine Config, die „manchmal funktioniert", sollte als instabil behandelt werden.
Einzeiler-Zusammenfassung
Bei Wan 2.2 und LTX-2 ist Video-OOM normalerweise ein Problem aus Frames × Auflösung × Batch.
Konservativ starten, Stabilität beweisen, dann hochskalieren.
Bereit zum Starten des Trainings?
