ComfyUI  >  ワークフロー  >  Hunyuan Image to Video | 息をのむようなモーションクリエイター

Hunyuan Image to Video | 息をのむようなモーションクリエイター

Hunyuan Image to Videoは、HunyuanVideo基盤を元に構築されたTencentの最新のイメージからビデオへのモデルです。静止画像を滑らかな動きで高品質なビデオに変換します。画像潜在結合と事前トレーニングされたマルチモーダル大規模言語モデルを使用して、画像とテキストプロンプトをスムーズに統合します。HunyuanVideo I2Vは、5秒までのビデオに対して24fpsで最大720pの解像度をサポートします。また、LoRAトレーニングを通じてカスタマイズ可能な効果を可能にし、髪の成長や感情的な抱擁のようなユニークな変換を可能にします。Hunyuan Image to Videoワークフローには、ラッパーノードとネイティブ互換性が含まれ、FP8ウェイトによるメモリ最適化によって効率を向上させます。

ComfyUI Hunyuan image-to-video ワークフロー

HunyuanVideo-I2V Workflow in ComfyUI | Premium Image-to-Video Generation
このワークフローを実行しますか?
  • 完全に動作するワークフロー
  • 欠落したノードやモデルはありません
  • 手動セットアップは不要
  • 魅力的なビジュアルを特徴としています

ComfyUI Hunyuan image-to-video 例

ComfyUI Hunyuan image-to-video 説明

ComfyUI Hunyuan Image-to-Videoワークフローの説明

1. Hunyuan Image-to-Videoワークフローとは?

Hunyuan Image-to-Videoワークフローは、静止画像を自然な動きで高品質なビデオに変換するために設計された強力なパイプラインです。Tencentによって開発されたこの最先端技術は、720pまでの解像度で滑らかな24fps再生のシネマティックアニメーションを作成することを可能にします。潜在画像結合とマルチモーダル大規模言語モデルを活用することで、Hunyuan Image-to-Videoは画像コンテンツを解釈し、テキストプロンプトに基づいて一貫した動きのパターンを適用します。

2. Hunyuan Image-to-Videoの利点:

  • 高解像度出力 - 720pで24fpsまでのビデオを生成
  • 自然な動きの生成 - 静止画像から流れるようなリアルなアニメーションを作成
  • テキストガイド付きアニメーション - テキストプロンプトを使用して動きと視覚効果をガイド
  • シネマティック品質 - 高忠実度のプロフェッショナルグレードのビデオを生成
  • カスタマイズ可能な効果 - 髪の成長、顔の表情、スタイル調整などのLoRAトレーニング効果をサポート
  • メモリ使用の最適化 - FP8ウェイトを利用してリソース管理を向上

3. Hunyuan Image-to-Videoワークフローの使い方

3.1 Hunyuan Image-to-Videoによる生成方法

ワークフローの例:

Hunyuan Image-to-Video

  1. 入力の準備
    • 画像の読み込み: ソース画像をアップロード
  2. 動きの説明を入力
    • HyVideo I2Vエンコードで: 希望する動きの説明文を入力
  3. 改良(オプション)
    • HunyuanVideoサンプラーで: ビデオの長さを制御するためにframesを調整(デフォルト: 129フレーム ≈ 5秒)
    • HunyuanVideo TeaCacheで: メモリ使用の最適化のためにcache_factorを変更
    • HunyuanVideo Enhance A Videoで: 時間的一貫性とちらつきの低減を有効化
  4. 出力
    • Video Combineで: プレビューを確認し、ComfyUI > 出力フォルダで保存された結果を見つける

3.2 Hunyuan Image-to-Videoのパラメータリファレンス

Hunyuan Image-to-Video

  • HunyuanVideoモデルローダー
    • model_name: hunyuan_video_I2V_fp8_e4m3fn.safetensors - イメージからビデオへの変換のためのコアモデル
    • weight_precision: bf16 - モデルウェイトの精度レベルを定義
    • scale_weights: fp8_e4m3fn - メモリ使用を最適化
    • attention_implementation: flash_attn_varlen - 注意処理効率を制御
  • HunyuanVideoサンプラー
    • frames: 129 - フレーム数(24fpsで5.4秒)
    • steps: 20 - サンプリングステップ(値が高いほど品質が向上)
    • cfg: 6 - プロンプトの遵守強度を制御
    • seed: varies - 生成の一貫性を確保
  • HyVideo I2Vエンコード
    • prompt: [text field] - 動きとスタイルの説明プロンプト
    • add_prepend: true - 自動テキストフォーマットを有効化

3.3 Hunyuan Image-to-Videoによる高度な最適化

  • メモリ最適化
    • HunyuanVideo BlockSwap: VRAM効率のためのCPUオフロード
    • HunyuanVideo TeaCache: メモリと速度のバランスをとるためにキャッシュ動作を制御
    • scale_weights: メモリ削減のためのFP8ウェイト(e4m3fnフォーマット
  • 速度最適化
    • HunyuanVideo Torch Compile Settings: 処理速度向上のためのTorchコンパイルを有効化
    • attention_implementation: 効率的な注意メカニズムを選択してパフォーマンスを向上
    • offload_device: GPU/CPUメモリ管理を構成

詳細情報

Hunyuan Image-to-Videoワークフローの詳細については、をご覧ください。

謝辞

このワークフローは、Tencentによって開発されたHunyuan Image-to-Videoによって支えられています。ComfyUIの統合には、Kijaiによって作成されたラッパーノードが含まれ、コンテキストウィンドウや直接画像埋め込みのサポートなどの高度な機能を可能にします。Hunyuan Image-to-Videoワークフローへの貢献に対して、オリジナルのクリエイターに全てのクレジットを捧げます!

より多くのComfyUIワークフローが必要ですか?

RunComfy
著作権 2025 RunComfy. All Rights Reserved.

RunComfyは最高の ComfyUI プラットフォームです。次のものを提供しています: ComfyUIオンライン 環境とサービス、および ComfyUIワークフロー 魅力的なビジュアルが特徴です。 RunComfyはまた提供します AI Playground, アーティストが最新のAIツールを活用して素晴らしいアートを作成できるようにする。