veo-3-1/fast/first-last-frame-to-video
静止画を数秒で映像化。Veo 3.1 Fastで手軽に高品質なAIビデオを制作。



静止画を数秒で映像化。Veo 3.1 Fastで手軽に高品質なAIビデオを制作。
静止画からダイナミックな映像を自動生成。直感的操作で自在な表現を実現。
1枚の画像を動く映像に変換できるクリエイティブツール。効果を選択して数秒で動画を生成。
Seedance Liteでテキストや画像を魅力的な動画に変換。手軽で高品質な映像制作を実現。
Hailuo 02で静止画を高精細な動画へ。直感操作で映像表現の幅が広がるAIツール
Wan 2.5でテキストを高品質な画像へ。クリエイターの発想を形にする次世代生成AI。
Hunyuan VideoはTencentが開発したオープンソースのAI動画生成モデルで、パラメータ数は130億にのぼります。詳細なテキストプロンプトを高品質な映像へ変換し、シーンの切り替えが滑らかで、リアルなカットや動きの一貫性も特徴です。Hunyuan Videoは、説得力のあるビジュアルストーリーテリングに最適です。
Hunyuan Videoは通常、ComfyUIなどのインターフェースを通じて、テキストからビデオ(T2V)や画像からビデオ(I2V)を生成する用途で使用されます。RunComfyでは、Hunyuan Text-to-Video、Hunyuan Image-to-Video、Hunyuan Video-to-Video、Hunyuan LoRAなど多様なワークフローが提供されています。 ComfyUIを使わない場合でも、RunComfy AI Playgroundならセットアップ不要でHunyuan Videoの体験が可能です。
RunComfy AI Playgroundでは、Hunyuan Videoを無料で体験できるクレジットが提供されており、他のAIモデルやワークフローと組み合わせて自由に試すことができます。
Hunyuan Videoの再生時間は「num_frames(フレーム数)」と「フレームレート」によって決まります。たとえば、num_framesが85でフレームレートが16fpsの場合、約5秒の動画になります。動画を長くしたい場合は、num_framesの値を増やしたり、フレームレートを調整して滑らかさと時間のバランスを取ることが重要です。ただし、長尺になるほど計算資源やVRAMの消費が増加します。RunComfyでは、Hunyuan Text-to-VideoやI2Vなど複数のHunyuan Videoワークフローが利用可能です。
Hunyuan Videoで生成可能な最大のフレーム数は129フレームです。24fpsの場合、約5秒の長さになり、フレームレートを16fpsに下げれば約8秒に延ばすことができます。
■ローカルへのインストール方法:
Hunyuan VideoのVRAM要件は設定や出力の長さ、品質によって異なりますが、基本的なワークフローには最低でも10〜12GBのVRAMが必要です。より滑らかで高品質な生成を目指す場合は、16GB以上のVRAMが推奨されます。
Hunyuan LoRAのファイルは、インストール環境内の専用LoRAフォルダ(例:“models/lora”)に配置してください。ComfyUIやStable Diffusionの多くの環境では、この場所に置くことで自動的に認識されます。
Hunyuan Videoで高品質な動画生成を行うには、効果的なプロンプト作成が重要です。以下の要素を含めるとよいでしょう:
SkyReels Hunyuanは、Hunyuan Videoモデルをベースに作られた拡張バージョンで、映画風でスタイリッシュな映像の生成に特化しています。1,000万本以上の高品質な映画・TV映像を用いて微調整され、リアルな人間の動きや表情表現に優れた結果が得られます。SkyReels AIでそのパワーをご自身で体験してみてください。
Hunyuan Videoは主にテキストから動画を生成するT2Vモデルとして開発されましたが、TencentはI2V拡張であるHunyuanVideo-I2Vも提供しており、静止画から動きのある映像を生成可能です。この拡張ではトークンの置き換え技術を活用し、参照画像の情報をうまく再構築・活用します。
以下のチュートリアルに従ってください:Hunyuan I2Vの使い方 (ComfyUI)。このガイドではステップごとに詳しく解説されています。
Hunyuan-DiTはHunyuan Videoと共通のテクノロジーを持つ拡散トランスフォーマーモデルで、主にテキストから画像を生成するタスクに特化しています。テキストや画像を自然に統合し、動画生成へとつなげる統一的なアプローチを採っています。
はい、Hunyuan Videoは3Dコンテンツにも対応しています。Tencentはテキストや画像を3Dビジュアルへ変換するツールを提供しており、Hunyuan3D-2.0技術に基づくオープンソースモデルとしてリリースされています。Hunyuan3D-2 ワークフローを使用すれば、静止画から3Dコンテンツを手軽に作ることができます。
ローカルでのインストール方法:最新版のComfyUIを使用し、Tencent公式リソースからモデルファイルとHunyuan3D-2専用ワークフローのJSONを取得します。ファイルを指定のフォルダに配置し、不足しているノードはComfyUI Managerで追加。インストール後、ComfyUIを再起動すればセットアップ完了です。 インストール不要の手軽な方法としては、RunComfy上のHunyuan3D-2ワークフローを使えば、すぐに3D生成を試せます。
TencentのGitHubリポジトリから公式モデルファイルをダウンロードし、ComfyUI環境にセットアップしてください。MacBookでの使用には、ハードウェアとソフトウェア要件を満たしている必要があります。 もしくは、RunComfy AI Playgroundを利用すれば、Hunyuan Videoをインストールなしで手軽にオンライン実行できます。
Hunyuan Videoラッパーは、開発者kijaiによるComfyUI用の専用ノードで、Hunyuan VideoモデルをComfyUIに統合する役割を果たします。以下のようなワークフローで活用できます:Text-to-Video、Image-to-Video、Video-to-Video、LoRA。
ComfyUIでは、あらかじめ構成されたHunyuan Video専用ワークフローを活用することで、すぐに動画生成を始められます。Text-to-Video、Image-to-Video、Video-to-Video、LoRAなどから、制作ニーズに合ったワークフローを選択してください。