logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>ワークフロー>Hunyuanビデオ | ビデオからビデオへ

Hunyuanビデオ | ビデオからビデオへ

Workflow Name: RunComfy/Hunyuan-Vid2Vid
Workflow ID: 0000...1178
ComfyUIのこのHunyuanワークフローを使用すると、既存のビジュアルを驚くべき新しいビジュアルに変換できます。テキストプロンプトとソースビデオを入力することで、Hunyuanモデルはソースからの動きと重要な要素を取り入れた印象的な翻訳を生成します。高度なアーキテクチャとトレーニング技術を使用して、Hunyuanは高品質で多様性と安定性のあるコンテンツを生成します。

Tencentによって開発されたオープンソースのAIモデルであるHunyuanビデオは、簡単に驚くべき動的ビジュアルを生成できます。Hunyuanモデルは、高度なアーキテクチャとトレーニング技術を利用して、質の高い、動きの多様性と安定性のあるコンテンツを理解し生成します。

Hunyuanビデオからビデオへのワークフローについて

ComfyUIのこのHunyuanワークフローは、入力テキストプロンプトと既存のドライビングビデオを組み合わせて新しいビジュアルコンテンツを作成します。Hunyuanモデルの能力を活用して、ドライビングビデオの動きと重要な要素をシームレスに取り入れながら、希望するテキストプロンプトに一致する印象的なビデオ翻訳を生成できます。

Hunyuanビデオからビデオへのワークフローの使用方法

🟥 ステップ1: Hunyuanモデルをロード

  • HyVideoModelLoaderノードで"hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors"ファイルを選択してHunyuanモデルをロードします。これがメインのトランスフォーマーモデルです。
  • HunyuanVideo VAEモデルは、HunyuanVideoVAELoaderノードで自動的にダウンロードされます。これはビデオフレームのエンコード/デコードに使用されます。
  • DownloadAndLoadHyVideoTextEncoderノードでテキストエンコーダーをロードします。ワークフローは"Kijai/llava-llama-3-8b-text-encoder-tokenizer" LLMエンコーダーと"openai/clip-vit-large-patch14" CLIPエンコーダーをデフォルトで使用し、自動的にダウンロードされます。以前のモデルと連携した他のCLIPまたはT5エンコーダーを使用することもできます。
    Hunyuan Video to Video Workflow

🟨 ステップ2: プロンプトを入力しドライビングビデオをロード

  • HyVideoTextEncodeノードで生成したいビジュアルを説明するテキストプロンプトを入力します。
  • VHS_LoadVideoノードでモーションリファレンスとして使用したいドライビングビデオをロードします。
    • frame_load_cap: 生成するフレーム数。この数を設定する際、数値から1を引いた値が4で割り切れるようにする必要があります。そうでない場合、ビデオの長さが無効であることを示すValueErrorが発生します。
    • skip_first_frames: ビデオのどの部分を使用するかを制御するためにこのパラメータを調整します。
      Hunyuan Video to Video Workflow

🟦 ステップ3: Hunyuan生成設定

  • HyVideoSamplerノードでビデオ生成のハイパーパラメータを設定します:
    • Steps: フレームあたりの拡散ステップ数。多いほど品質が向上しますが、生成が遅くなります。デフォルトは30です。
    • Embedded_guidance_scale: プロンプトにどの程度従うか。高い値ほどプロンプトに忠実になります。
    • Denoise_strength: 初期ドライビングビデオの使用強度を制御します。低い値(例: 0.6)は出力を初期に近づけます。
  • "Fast Groups Bypasser"ノードで、比較ビデオのような追加機能を有効/無効にするためのアドオンとトグルを選択します。
    Hunyuan Video to Video Workflow

🟩 ステップ4: Hunyuanビデオを生成

  • VideoCombineノードはデフォルトで2つの出力を生成して保存します:
    • 翻訳されたビデオ結果
    • ドライビングビデオと生成された結果を示す比較ビデオ
      Hunyuan Video to Video Workflow

プロンプトと生成設定を調整することで、既存のビデオの動きによって駆動される新しいビデオをHunyuanモデルを使用して作成する際の印象的な柔軟性を提供します。このHunyuanワークフローの創造的な可能性をぜひ探求してください!


このHunyuanワークフローはBlack Mixtureによって設計されました。詳細についてはBlack MixtureのYouTubeチャンネルをご覧ください。また、KijaiによるHunyuanラッパーノードとワークフロー例に特別な感謝を捧げます。

Want More ComfyUI Workflows?

Hunyuan Video | テキストからビデオへ

テキストプロンプトからビデオを生成します。

EchoMimic | オーディオ駆動のポートレートアニメーション

提供されたオーディオと同期したリアルなトーキングヘッドとボディジェスチャーを生成します。

Push-In Camera - Wan 2.1のためのMotion LoRA

1枚の画像からブロックバスターのプッシュインショットが生まれます。複雑さゼロ。

AnimateDiff + ControlNet + IPAdapter V1 | カートゥーンスタイル

わずか数枚の画像で希望のスタイルを定義するだけで、元のビデオを目的のアニメーションに変換します。

LTX 2.3 ID-LoRA | トーキングアバター生成器

声とビジュアルが同期したリアルなトーキングアバターを作成します。

Face to Many | 3D, Emoji, Pixel, Clay, Toy, Video game

LoRAモデル、ControlNet、InstantIDを利用した高度な顔の多様な変換

PuLID Flux II | 一貫したキャラクター生成

芸術的なスタイルを維持しながら、正確なキャラクター制御で画像を生成します。

Flux 2 Dev | フォトリアル テキストから画像生成

次世代の画像リアリズムと高度な生成制御力

フォローする
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
サポート
  • Discord
  • メール
  • システムステータス
  • アフィリエイト
リソース
  • 無料のComfyUIオンライン
  • ComfyUIガイド
  • RunComfy API
  • ComfyUIチュートリアル
  • ComfyUIノード
  • 詳細を見る
法的情報
  • 利用規約
  • プライバシーポリシー
  • Cookieポリシー
RunComfy
著作権 2026 RunComfy. All Rights Reserved.

RunComfyは最高の ComfyUI プラットフォームです。次のものを提供しています: ComfyUIオンライン 環境とサービス、および ComfyUIワークフロー 魅力的なビジュアルが特徴です。 RunComfyはまた提供します AI Models, アーティストが最新のAIツールを活用して素晴らしいアートを作成できるようにする。