SeedVR2 V2.5 ComfyUI用ビデオアップスケーリングワークフロー
SeedVR2 V2.5は、高精細なビデオおよび画像のアップスケーラーであり、詳細を復元し、テクスチャをシャープにし、時間的一貫性を改善しながら動きを滑らかに保ちます。このComfyUIワークフローは、SeedVR2拡散トランスフォーマーとそのVAEをラップし、AI生成のクリップ、アーカイブ映像、またはレンダリングをクリーンでより映画的な結果にアップスケールできます。
アーティストや編集者向けに設計されたSeedVR2 V2.5ワークフローは、単一の画像とフルビデオの両方を処理し、RGBAコンテンツを含み、アップスケールされたビデオを再構成する際に元のオーディオとフレームレートを保持します。コンパイル時の加速や品質、VRAM、速度のバランスを取るモデル選択を含みます。
ComfyUI SeedVR2 V2.5ワークフローの主要モデル
- SeedVR2 Diffusion Transformer 3Bと7B。解像度と知覚品質を向上させながら、時間的一貫性を維持するコアのワンステップ復元モデルです。低VRAMまたは迅速なターンアラウンドには3Bを、最高の忠実度が必要な場合には7Bを使用します。詳細は公式モデルカードとペーパーをご覧ください: ByteDance-Seed/SeedVR2-3B, ByteDance-Seed/SeedVR2-7B, そしてSeedVR2のワンステップビデオ復元ペーパー arXiv:2506.05301。
- SeedVR2 VAE (ema_vae_fp16)。フレームを潜在空間にエンコードし、復元された結果をRGBにデコードするための変分オートエンコーダーで、大解像度のタイルサポートがあります。ComfyUI統合と共に配布されています: numz/SeedVR2_comfyUI。
- オプションの量子化されたバリアント。コミュニティの統合により、FP8とGGUFオプションがメモリを削減するために露出され、品質や速度のトレードオフがあります。現在のオプションはComfyUI SeedVR2ノードリポジトリをご覧ください: ComfyUI-SeedVR2_VideoUpscaler。
ComfyUI SeedVR2 V2.5ワークフローの使用方法
このグラフには、同じモデルローダーとアップスケーラーロジックを共有する2つの独立したグループがあります。単一の静止画像にはImageグループを使用します。ビデオをフレームとオーディオに分割し、SeedVR2 V2.5でフレームをアップスケールし、元のオーディオとfpsでクリップを再構成するにはVideoグループを使用します。
Imageグループ
LoadImage (#27)で静止画像をロードします。画像に透明性がある場合は、JoinImageWithAlpha (#31)を通してアルファチャンネルがアップスケーリング中に保持されるようにルート設定します。SeedVR2LoadDiTModel (#28)でDiTチェックポイントを選択してロードし、SeedVR2LoadVAEModel (#29)でVAEをロードします。モデルは初回使用時に自動的にダウンロードされます。SeedVR2VideoUpscaler (#30)に画像をフィードしてアップスケールと復元を行います。このノードは、SeedVR2 V2.5の外観に一致する詳細復元と制御されたシャープニングに焦点を当てています。SaveImage (#32)で結果を保存します。バッチ処理のために、SeedVR2TorchCompileSettings (#25)を有効にしてグラフを一度コンパイルし、その後のバッチを高速化できます。
Videoグループ
LoadVideo (#21)でクリップをインポートし、GetVideoComponents (#22)でフレーム、オーディオ、fpsを抽出します。フレームにアルファが含まれている場合は、アップスケール前にJoinImageWithAlpha (#17)でマージします。選択したDiTとVAEをSeedVR2LoadDiTModel (#14)とSeedVR2LoadVAEModel (#13)でロードし、SeedVR2VideoUpscaler (#10)でフレームストリームをアップスケールします。CreateVideo (#24)を使用して、元のオーディオとfpsを通過させてビデオを再構築し、SaveVideo (#23)でファイルを書き込みます。長いクリップの場合、SeedVR2TorchCompileSettings (#19)は初回のコンパイルステップ後に反復ごとの時間を短縮します。
ComfyUI SeedVR2 V2.5ワークフローの主要ノード
SeedVR2VideoUpscaler (#10と#30) SeedVR2により駆動される中心的な復元およびアップスケールノードです。スケールまたは目標寸法によってターゲットアップスケール目的を設定し、GPUに適したバッチサイズを選択します。時間的一貫性は、複数の隣接するフレームを一緒に処理することによって維持されます。公式ガイダンスでは、少なくとも5フレームのバッチがビデオの時間的一貫性を活性化し、VRAMが許可する場合はより大きなバッチが安定性を向上させると述べています ComfyUI-SeedVR2_VideoUpscaler。RGBAの場合、アルファパスが上流で接続されていることを確認します。高解像度でメモリ圧迫が発生する場合は、目標解像度を下げるか、より軽量なモデルバリアントに切り替えます。
SeedVR2LoadDiTModel (#14と#28) SeedVR2トランスフォーマーチェックポイントをロードし、推論デバイスを設定します。品質とVRAM予算に応じて3Bと7Bを選択します。FP16は最高の忠実度を提供し、FP8またはGGUFはコミュニティ統合によって露出される制約されたGPUで役立ちます numz/SeedVR2_comfyUI および公式ComfyUIノードリポジトリ ComfyUI-SeedVR2_VideoUpscaler。DiTを最速のGPUに保持するか、メモリのために明示的にオフロードする場合を除きます。
SeedVR2LoadVAEModel (#13と#29) エンコードとデコードに使用されるEMA VAEをロードします。大きな出力をターゲットとする場合、タイル化エンコードまたはデコードを有効にして、速度の小さなコストでピークVRAMを削減します。タイルサイズとオーバーラップは、OOMまたはエッジアーティファクトが発生した場合にのみ調整します。VAEをCPUまたは別のGPUにオフロードすることで、結果を変更せずにDiTのためのスペースを確保できます numz/SeedVR2_comfyUI。
SeedVR2TorchCompileSettings (#19と#25) SeedVR2パスの一部を融合カーネルプランにコンパイルすることで、オプションの速度アップを実現します。最初の実行でコンパイルコストが発生し、その後のバッチが高速化され、長いビデオや繰り返しの反復に理想的です ComfyUI-SeedVR2_VideoUpscaler。
オプションの追加機能
- 仕事に合ったモデルを選択: スピードまたは限定されたVRAMには3B、絶対的な詳細が重要な場合には7Bを選択します SeedVR2-3B, SeedVR2-7B。
- オーディオとタイミングを保持するには、
GetVideoComponents(#22)のaudioとfps出力をCreateVideo(#24)に接続したままにします。 - 透明性のある重いコンテンツの場合、アップスケーラーの前にアルファを
JoinImageWithAlphaでマージして、合成時にエッジを鮮明に保ちます。 - OOMが発生した場合、出力解像度を下げるか、3Bモデルに切り替えるか、VAEタイル化を有効にするか、利用可能な場合は量子化されたチェックポイントを使用します numz/SeedVR2_comfyUI。
- SeedVR2が適応ウィンドウアテンションと敵対的ポストトレーニングでワンステップ復元を達成する方法の詳細については、ペーパー arXiv:2506.05301とリファレンス実装 IceClear/SeedVR2をご覧ください。
謝辞
このワークフローは、以下の作品やリソースを実装し、そこに基づいて構築されています。ComfyUI-SeedVR2_VideoUpscaler (SeedVR2 v2.5 ノード/ワークフロー) のためにnumzに、公式SeedVR2 v2.5ビデオチュートリアルのためにAInVFXに感謝の意を表します。詳細については、以下のリンクされたオリジナルのドキュメントとリポジトリを参照してください。
リソース
- SeedVR2 V2.5 ソース: https://www.reddit.com/r/comfyui/comments/1ordkfc/seedvr2_v25_released_complete_redesign_with_gguf
- GitHub: numz/ComfyUI-SeedVR2_VideoUpscaler
- ドキュメント / リリースノート: Reddit post
- SeedVR2 V2.5 Youtube Demo: https://www.youtube.com/watch?v=MBtWYXq_r60
- ドキュメント / リリースノート @AInVFX: YouTube video
注: 参照されたモデル、データセット、およびコードの使用は、それぞれの著者およびメンテナによって提供されるライセンスおよび条件に従います。

