Wan 2.1 Fun | I2V + T2V
このWan 2.1 Funワークフローは、画像から動画およびテキストから動画への生成モードをサポートし、AI駆動のモーションコンテンツのための多用途なクリエイティブツールキットを提供します。静止画像を動的なシーンに変換したり、純粋なテキストプロンプトから想像力豊かなシーケンスを作成したり、このセットアップはWan 2.1 Funモデルの能力を活用して一貫性のある映画的な結果を提供します。プロンプトに基づくトランジション、フレーム予測、柔軟な期間をサポートし、デジタルストーリーテリング、AIアニメーション、または実験的メディアアートに最適です。ComfyUI Wan 2.1 Fun ワークフロー
ComfyUI Wan 2.1 Fun 例
ComfyUI Wan 2.1 Fun 説明
Wan 2.1 Fun | 画像から動画およびテキストから動画へのAI生成
Wan 2.1 Fun画像から動画およびテキストから動画は、静止ビジュアルと純粋な想像力の両方を生き生きとさせる非常に多用途なAI動画生成ワークフローを提供します。Wan 2.1 Funモデルファミリーによって駆動されるこのワークフローは、ユーザーが単一の画像をフル動画にアニメーション化したり、テキストプロンプトから直接モーションシーケンス全体を生成したりすることを可能にします—初期映像は必要ありません。
数語からシュールな夢の風景を作成したり、コンセプトアートを生き生きとした瞬間に変えるかどうかに関わらず、このWan 2.1 Funセットアップを使用すると、一貫性のあるスタイリッシュな動画出力を簡単に生成できます。スムーズなトランジション、柔軟な期間設定、多言語プロンプトをサポートしており、ストーリーテラー、デジタルアーティスト、ビジュアルの境界を最小限のオーバーヘッドで押し広げたいクリエイターに最適です。
なぜWan 2.1 Fun画像から動画 + テキストから動画を使用するのか?
Wan 2.1 Fun画像から動画およびテキストから動画ワークフローは、画像または単純なテキストプロンプトから高品質の動画を生成する簡単で表現力豊かな方法を提供します:
- 自動トランジションとエフェクトで画像を動きに変換
- スマートフレーム予測を使用してテキストプロンプトから直接動画を生成
- 視覚的な物語を制御するための**InP(スタート/エンドフレーム予測)**を含む
- スケーラブルな品質と速度のために1.3Bおよび14Bモデルバリアントで動作
- 創造的なアイデア出し、ストーリーテリング、アニメーションシーン、映画的シーケンスに最適
シーンをゼロから視覚化するか、静止画像をアニメーション化するかに関わらず、このWan 2.1 Funワークフローは、Wan 2.1 Funモデルを使用して迅速でアクセス可能で視覚的に印象的な結果を提供します。
Wan 2.1 Fun画像から動画 + テキストから動画の使用方法
Wan 2.1 Fun画像から動画 + テキストから動画の概要
Load WanFun Model
: 適切なWan 2.1 Funモデルバリアント(1.3Bまたは14B)をロードEnter Prompts or Upload Image
: テキストプロンプトと画像入力の両方をサポートし、それぞれのグループを使用Set Inference Settings
: フレーム、期間、解像度、モーションオプションを調整Wan Fun Sampler
: 開始/終了予測と時間的一貫性のためにWanFunを使用Save Video
: サンプリング後に出力動画が自動的にレンダリングされ保存されます
クイックスタート手順:
- Load Model Groupで
Wan 2.1 Fun
モデルを選択 - 生成を誘導するために肯定的および否定的プロンプトを入力
- 入力モードを選択:
- Image-to-Videoグループに画像をアップロード
- またはText-to-Videoグループにテキストプロンプトのみを使用
Wan Fun Sampler
ノードで設定を調整(フレーム、解像度、モーションオプション)Queue Prompt
ボタンをクリックしてワークフローを実行- Video Saveノード(
Outputs
フォルダ)から最終Wan 2.1 Fun動画を表示およびダウンロード
1 - WanFunモデルをロード
タスクに適したモデルバリアントを選択:
Wan2.1-Fun-Control (1.3B / 14B)
: 深度、Canny、OpenPose、および軌道制御によるガイド付き動画生成用Wan2.1-Fun-InP (1.3B / 14B)
: 開始および終了フレーム予測によるテキストから動画生成用
Wan 2.1 Funのメモリチップス:
- 1.3B Wan 2.1 Funでの高速生成には
model_cpu_offload
を使用 - 14B Wan 2.1 FunでのGPUメモリ使用量を削減するには
sequential_cpu_offload
を使用
2 - プロンプトを入力
選択した適切な画像-2-動画グループまたはテキスト-2-動画グループで、肯定的および否定的プロンプトを入力します。
- 肯定的プロンプト:
-
動き、ディテール、および深度を駆動し、動画のリスタイルを行う
-
描写的で芸術的な言語を使用すると、最終的なWan 2.1 Fun出力が向上します
-
- 否定的プロンプト:
- *"ぼかし、変異、変形、歪み、暗くて固体、漫画。"*のような長めの否定的プロンプトを使用すると、Wan 2.1 Funの安定性が向上します
- *"静か、固体"*などの言葉を追加すると、Wan 2.1 Fun動画にダイナミズムを増すことができます
3 - Wan 2.1 Funを使用した画像2動画グループ
開始画像をアップロードしてWan 2.1 Fun生成を開始します。Wan Funサンプラーノードで解像度と期間を調整できます。
[オプション] 終了画像ノードをミュート解除します。この画像は最終画像として機能し、間のレンダリングはWan 2.1サンプラーを通じて行われます。
最終Wan 2.1 Fun動画はVideo SaveノードのOutputs
フォルダにあります。
4 - Wan 2.1 Funを使用したテキスト2動画グループ
プロンプトを入力して生成を開始します。Wan Funサンプラーノードで解像度と期間を調整できます。
最終Wan 2.1 Fun動画はVideo SaveノードのOutputs
フォルダにあります。
認識
Wan 2.1 Fun画像から動画およびテキストから動画ワークフローは、およびによって開発され、Wan 2.1 Funモデルファミリーのプロンプトベースの動画生成をよりアクセスしやすく柔軟にしました。彼らの貢献により、ユーザーは静止画像と純粋なテキストの両方を使用して、動的でスタイリッシュな動画を最小限のセットアップと最大限の創造的自由で作成できるようになりました。AI動画生成分野での彼らの革新と継続的な影響に深く感謝します。