SeedVR2 V2.5 ist ein hochfidelitärer Video- und Bild-Upscaler, der Details wiederherstellt, Texturen schärft und die zeitliche Konsistenz verbessert, während die Bewegung geschmeidig bleibt. Dieser ComfyUI-Workflow umschließt den SeedVR2-Diffusionstransformator und dessen VAE, sodass Sie KI-generierte Clips, Archivmaterial oder Nachbearbeitungs-Renderings in sauberere, filmischere Ergebnisse hochskalieren können.
Entwickelt für Künstler und Editoren, verarbeitet der SeedVR2 V2.5 Workflow sowohl einzelne Bilder als auch vollständige Videos, einschließlich RGBA-Inhalten, und bewahrt den Originalton und die Bildrate beim Zusammenfügen des hochskalierten Videos. Es umfasst optionale Kompilierungszeitbeschleunigung und Modelloptionen, die Qualität, VRAM und Geschwindigkeit ausbalancieren.
SeedVR2 Diffusion Transformer 3B und 7B. Kern-Ein-Schritt-Wiederherstellungsmodelle, die die Auflösung und die wahrgenommene Qualität verbessern, während sie die zeitliche Kohärenz beibehalten. Verwenden Sie 3B für niedrigeren VRAM oder schnellere Durchlaufzeiten und 7B, wenn Sie die höchste Wiedergabetreue wünschen. Siehe die offiziellen Modellkarten und das Papier für Details: ByteDance-Seed/SeedVR2-3B, ByteDance-Seed/SeedVR2-7B, und das SeedVR2-Papier über Ein-Schritt-Video-Wiederherstellung arXiv:2506.05301.
SeedVR2 VAE (ema_vae_fp16). Variational Autoencoder, der verwendet wird, um Frames in den latenten Raum zu kodieren und die wiederhergestellten Ergebnisse zurück in RGB zu dekodieren, mit Kachelung für große Auflösungen. Verteilt mit der ComfyUI-Integration: numz/SeedVR2_comfyUI.
Optionale quantisierte Varianten. Die Community-Integration bietet FP8- und GGUF-Optionen zur Reduzierung des Speicherbedarfs mit einigen Qualitäts- oder Geschwindigkeitskompromissen. Siehe das ComfyUI SeedVR2 Node Repository für aktuelle Optionen: ComfyUI-SeedVR2_VideoUpscaler.
Dieses Diagramm hat zwei unabhängige Gruppen, die dieselben Modell-Loader und Upscaler-Logik teilen. Verwenden Sie die Bildgruppe für einzelne Standbilder. Verwenden Sie die Videogruppe, um ein Video in Frames und Audio zu teilen, die Frames mit SeedVR2 V2.5 hochzuskalieren und dann den Clip mit Originalton und fps wieder zusammenzusetzen.
Laden Sie ein Standbild mit LoadImage (#27). Wenn Ihr Bild Transparenz hat, leiten Sie es durch JoinImageWithAlpha (#31), damit der Alphakanal während des Hochskalierens erhalten bleibt. Wählen und laden Sie einen DiT-Checkpoint mit SeedVR2LoadDiTModel (#28) und einen VAE mit SeedVR2LoadVAEModel (#29); die Modelle werden beim ersten Gebrauch automatisch heruntergeladen. Füttern Sie das Bild in SeedVR2VideoUpscaler (#30) ein, um es hochzuskalieren und wiederherzustellen; der Knoten konzentriert sich auf die Detailwiederherstellung und kontrollierte Schärfung, die dem Aussehen von SeedVR2 V2.5 entspricht. Speichern Sie die Ergebnisse mit SaveImage (#32). Für Batchläufe können Sie SeedVR2TorchCompileSettings (#25) aktivieren, um das Diagramm einmal zu kompilieren und nachfolgende Chargen zu beschleunigen.
Importieren Sie einen Clip mit LoadVideo (#21), dann extrahiert GetVideoComponents (#22) Frames, Audio und fps. Wenn Ihre Frames Alpha enthalten, fügen Sie es vor dem Hochskalieren über JoinImageWithAlpha (#17) zusammen. Laden Sie Ihr gewähltes DiT und VAE mit SeedVR2LoadDiTModel (#14) und SeedVR2LoadVAEModel (#13), dann skalieren Sie den Frame-Stream mit SeedVR2VideoUpscaler (#10) hoch. Erstellen Sie das Video mit CreateVideo (#24) neu, das den Originalton und die fps durchlässt, und schreiben Sie die Datei mit SaveVideo (#23). Für lange Clips reduziert SeedVR2TorchCompileSettings (#19) die Zeit pro Iteration nach einem ersten Kompilierschritt.
SeedVR2VideoUpscaler (#10 und #30)
Zentraler Wiederherstellungs- und Upscaling-Knoten, betrieben von SeedVR2. Stellen Sie Ihr Ziel-Upscale-Ziel entweder nach Maßstab oder Zielabmessungen ein und wählen Sie eine Batchgröße, die zu Ihrer GPU passt. Die zeitliche Konsistenz wird durch die Verarbeitung mehrerer benachbarter Frames zusammen angetrieben; die offizielle Anleitung weist darauf hin, dass ein Batch von mindestens 5 Frames die zeitliche Konsistenz für Videos aktiviert, wobei größere Batches die Stabilität verbessern, wenn VRAM dies zulässt ComfyUI-SeedVR2_VideoUpscaler. Bei RGBA stellen Sie sicher, dass der Alpha-Pfad stromaufwärts verbunden ist. Wenn Sie bei hohen Auflösungen Speicherengpässe feststellen, senken Sie die Zielauflösung oder wechseln Sie zu einer leichteren Modellvariante.
SeedVR2LoadDiTModel (#14 und #28)
Lädt den SeedVR2-Transformer-Checkpoint und konfiguriert das Inferenzgerät. Wählen Sie zwischen 3B und 7B entsprechend Ihrem Qualitäts- und VRAM-Budget; FP16 bietet die beste Wiedergabetreue, während FP8 oder GGUF auf eingeschränkten GPUs helfen können, wie von der Community-Integration offengelegt numz/SeedVR2_comfyUI und dem offiziellen ComfyUI-Knoten-Repo ComfyUI-SeedVR2_VideoUpscaler. Halten Sie das DiT auf Ihrer schnellsten GPU, es sei denn, Sie entladen explizit für den Speicher.
SeedVR2LoadVAEModel (#13 und #29)
Lädt das EMA VAE, das zum Kodieren und Dekodieren verwendet wird. Wenn Sie große Ausgaben anstreben, aktivieren Sie das Kacheln beim Kodieren oder Dekodieren, um den Spitzen-VRAM bei geringen Geschwindigkeitskosten zu reduzieren; passen Sie die Kachelgröße und Überlappung nur an, wenn Sie OOM oder Randartefakte feststellen. Das Entladen des VAE auf die CPU oder eine andere GPU kann Platz für den DiT schaffen, ohne die Ergebnisse zu ändern numz/SeedVR2_comfyUI.
SeedVR2TorchCompileSettings (#19 und #25)
Optionale Beschleunigung, die Teile des SeedVR2-Pfads zu einem verschmolzenen Kernel-Plan kompiliert. Der erste Lauf zahlt eine Kompilierungskosten, dann sind nachfolgende Chargen schneller, was ideal für längere Videos oder wiederholte Iterationen ist ComfyUI-SeedVR2_VideoUpscaler.
audio- und fps-Ausgaben von GetVideoComponents (#22) mit CreateVideo (#24) verbunden halten.JoinImageWithAlpha vor dem Upscaler zusammengeführt wird, um die Kanten in der Komposition scharf zu halten.Dieser Workflow implementiert und baut auf den folgenden Arbeiten und Ressourcen auf. Wir danken numz für den ComfyUI-SeedVR2_VideoUpscaler (SeedVR2 v2.5 Knoten/Workflow) und AInVFX für das offizielle SeedVR2 v2.5 Video-Tutorial für ihre Beiträge und Wartung. Für autoritative Details verweisen Sie bitte auf die originale Dokumentation und die unten verlinkten Repositories.
Hinweis: Die Nutzung der referenzierten Modelle, Datensätze und Codes unterliegt den jeweiligen Lizenzen und Bedingungen der Autoren und Instandhalter.
RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.