RunComfy の Cloud は Reallusion AI Render 用の FLUX.1-dev ControlNet に限定されません。チェックポイント、ControlNets、LoRAs、VAEs、および関連ノードを交換して、以下にリストされている追加の Reallusion ワークフロー と モデル を実行できます。
さらに多くの Reallusion ComfyUI ワークフローを取得: RunComfy でダウンロードして実行できるワークフローテンプレートをさらに取得します。"Workflows" ボタンをクリックして、もっと試してみてください。
はリアルタイムの 2D/3D キャラクター作成およびアニメーションソフトウェアの開発者であり、iClone や Character Creator で有名です。これらは映画/テレビ、ゲーム、アーキビズ、デジタルツイン、AI シミュレーションで使用されています。 Reallusion AI Render は 3D アニメーションソフトウェアと AI 駆動のコンテンツ生成ワークフローをシームレスに結びつけます。 これはまるで、iClone や Character Creator からのレイアウト、ポーズ、カメラ、または照明データを直接受け取り、そのコンテキストを使用して ComfyUI 内で豊かに詳細な画像やビデオを自動的に作成する AI レンダリングアシスタントのようなものです。この統合により、Reallusion のリアルタイム 3D 作成ツールと ComfyUI の柔軟なノードベースの AI 処理アーキテクチャが結びつき、画像やビデオに基づくストーリーテリングがアーティスト主導でありながら、3D データによって厳密にガイドされるようになります。Reallusion AI Render は、深度マップ、法線マップ、エッジ検出 (Canny)、3D ポーズデータ、スタイル画像などのマルチモーダル入力を IPAdapter 経由でサポートしています。さらに、そのカスタム Core、ControlNet、Additional Image、Upscale ノードのおかげで、アニメーターや開発者は、一貫性のあるスタイリッシュで高品質な出力を完全にプラグイン制御の下でレンダリングでき、ComfyUI を手動で操作する必要がありません。
構造化された指示を解釈し、それらを内部パラメータプリセットと組み合わせることで、Reallusion AI Render はプロンプトベースの生成を正確で再現可能な生産プロセスに変換します。 これは、映画、ゲーム、または商業的なストーリーテリングで、AI を活用した一貫したキャラクター、詳細なスタイル制御、フレーム精度の高い AI 支援のシーケンスレンダリングを必要とするクリエイターに最適です。
直接プラグイン統合: Reallusion AI Render は専用プラグインを介して iClone と Character Creator でネイティブに動作し、制作ツールを離れることなくリアルタイムのフィードバックと制御を可能にします。
3D ガイド付き ControlNet: Reallusion AI Render の ControlNet ノードを使用して、深度、ポーズ、法線、エッジデータを 3D シーンから直接 ComfyUI にマッピングし、映画のような一貫性とショットレベルの制御を実現します。
マルチイメージスタイリングサポート: Reallusion AI Render ワークフローには、柔軟なスタイルブレンディングと参照に基づくディレクションをサポートする Additional Image ノードが含まれており、ルックの再利用や高度な IP 適応レンダリングが簡単に行えます。
スマートアップスケールワークフロー: 専用の UpscaleData ノードにより、クリエイターは Reallusion AI Render プラグイン内で出力解像度を定義でき、最終レンダーがプロジェクト仕様に合致するようにします。
フルワークフローオートメーション: 一般的な ComfyUI ワークフローとは異なり、Reallusion AI Render は自動化のために設計されており、モデル、サンプリングステップ、CFG、オーディオ同期などのパラメータがプログラム的に渡され、バッチレンダリングやカスタムプリセットに対応しています。
プロダクション対応のキャラクターの一貫性: LoRA トレーニングと IP 作成ツールと組み合わせて使用することで、Reallusion AI Render はビデオシーケンス全体で顔の整合性と視覚的忠実度を維持し、AI 駆動のストーリーテリングに理想的です。
Reallusion AI Render 基本ワークフロー
画像を準備する Reallusion iClone または Character Creator から AI Render Plugin を使用して任意の画像をエクスポートします。画像がデフォルトのプラグインパス構造を使用して保存されていることを確認します。これにより、すべてのガイダンス/コントロール画像 (例: ポーズ、深度) が自動的に生成され、正しくリンクされます。
画像を ComfyUI -> input フォルダにアップロードしてください。ファイル名が Node で指定された render_output_path と一致していることを確認してください。
プロンプトとスタイルを設定する 望むものを明確に示すポジティブプロンプトと、避けたいものを示すネガティブプロンプトを iClone または Character Creator AI Render プラグインの UI 内に書きます。ワークフローはこれを使用して出力の外観と詳細をガイドします。
基本設定
1. プロンプトと品質設定 – RL AI Render UI Core Node このノードは AI Render Plugin からの主要なパラメータを収集します。
2. ベースモデル設定 – チェックポイントノードの読み込み
選択したモデル (例: Flux 1 Dev ControlNet) を読み込みます。
ckpt_name: スタイルが期待するモデルに一致する必要があります (デフォルト: flux1-dev-fp8.safetensors
)。
IPAdapter または ControlNet をサポートするモデルを使用すると最良の結果が得られます。
3. 構造ガイダンス – ControlNet ノード (ポーズ、深度、Canny) 各 ControlNet ノードは特定の入力ファイル (例: ポーズ画像) を読み込みます。コントロールが有効な場合にのみアクティブです。
4. プロンプトコンディショニング – Flux ガイダンスノード プロンプトが画像生成をどのように形成するかを調整します。
5. テキストプロンプトエンコーディング – CLIP テキストエンコードノード プロンプトからベクターガイダンスを生成します。
高度なヒント
プロンプトの明確さ
過度に複雑または曖昧なプロンプトを避けてください。映画的照明
、アニメ
、サイバーパンクアレー
のような直接的なスタイルを使用します。より制御された結果を得るために具体的にします。
デノイズと構造のバランス ControlNet が有効な場合 (例: 深度 + ポーズ)、高いデノイズ値 0.88 は構造を乱す可能性があります。レイアウトを優先する場合は 0.6–0.75 を試してください。
ControlNet と入力を一致させる
一致するガイダンス画像が存在する場合にのみ ControlNet を有効にします (例: 深度用の RenderImageDepth.png
)。不一致はプロンプトの失敗や空の結果を引き起こす可能性があります。
このワークフローは、 によって開発された Flux-FP8 モデルと、Reallusion チームが公式の AI レンダリング において概説したパフォーマンス最適化技術を統合しています。モデル開発への貢献に対する Kijai への特別な感謝と、ComfyUI ワークフローにおける AI レンダリング効率を向上させる貴重な洞察を共有してくれた Reallusion への感謝を表します。
Reallusion AI Render に関連する技術リソースとドキュメントを探索します。
RunComfyは最高の ComfyUI プラットフォームです。次のものを提供しています: ComfyUIオンライン 環境とサービス、および ComfyUIワークフロー 魅力的なビジュアルが特徴です。 RunComfyはまた提供します AI Playground, アーティストが最新のAIツールを活用して素晴らしいアートを作成できるようにする。