logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>ワークフロー>Reallusion AI Render | 3DからComfyUIへのワークフローコレクション

Reallusion AI Render | 3DからComfyUIへのワークフローコレクション

Workflow Name: RunComfy/Reallusion-AI-Render
Workflow ID: 0000...1270
このワークフローは、Character CreatorまたはiCloneからのプロンプトと3D由来のガイダンス(ポーズ、深さ、エッジ、法線)を直接ComfyUIに送り込み、一貫したシーンに正確な画像やシーケンスを生成します。Reallusion AI Renderのカスタムノードを活用して、RL iCloneまたはCharacter Creatorからキャラクターやシーンのための非常に一貫した3Dガイド付きビジュアルを直接生成できます。Reallusionのリアルタイム環境で迅速に反復しながら、ComfyUIグラフは正確で再現可能なレンダリングを処理し、深いカスタマイズの余地を残します。

重要なお知らせ : サポートされているワークフローとモデル

RunComfyのクラウドは、Reallusion AI RenderのためのFLUX.1-dev ControlNetに限定されません。チェックポイント、ControlNets、LoRAs、VAEs、および関連ノードを交換して、以下に示す追加のReallusionワークフローとモデルを実行できます。

  • FusionX WanVACE
  • Wan2.1 Fun 1.3B Control
  • Wan2.1 VACE 1.3B
  • Wan2.1 VACE FusionX 14B
  • Flux.1 Dev ControlNet ...

さらに多くのReallusion ComfyUIワークフローを入手: RunComfyでダウンロードして実行できるさらに多くのワークフローテンプレートを入手してください。「Workflows」ボタンをクリックして、もっと試してみてください。

Reallusion AI Render - More workflows

1. Reallusion AI Renderとは何か

Reallusionは、リアルタイムの2D/3Dキャラクター作成とアニメーションソフトウェアの開発者であり、iCloneとCharacter Creatorで最もよく知られ、映画/テレビ、ゲーム、アーキビジョン、デジタルツイン、AIシミュレーションで使用されています。

Reallusion AI Render は、3DアニメーションソフトウェアとAI駆動のコンテンツ生成ワークフローの間のシームレスな橋渡しです。 これは、iCloneまたはCharacter Creatorから直接レイアウト、ポーズ、カメラ、照明データを受け取り、そのコンテキストを使用してComfyUI内で豊かに詳細な画像やビデオを自動的に作成するAIレンダーアシスタントと考えてください。この統合は、Reallusionのリアルタイム3D作成ツールとComfyUIの柔軟なノードベースのAI処理アーキテクチャを組み合わせ、画像やビデオベースのストーリーテリングをアーティスト主導で、3Dデータによって厳密にガイドされるものにします。Reallusion AI Renderは、IPAdapterを介して深度マップ、法線マップ、エッジ検出(Canny)、3Dポーズデータ、スタイル画像などのマルチモーダル入力をサポートします。また、カスタムCore、ControlNet、Additional Image、Upscaleノードのおかげで、アニメーターや開発者は、ComfyUIを手動で操作することなく、プラグインの制御下で一貫したスタイライズされた高品質の出力をレンダリングできます。

構造化された指示を解釈し、それを内部パラメータプリセットと組み合わせることで、Reallusion AI Renderはプロンプトベースの生成を正確で再現可能なプロダクションプロセスに変換します。 これは、映画、ゲーム、商業ストーリーテリングで一貫したキャラクター、細かいスタイルコントロール、フレーム正確なAI支援シーケンスレンダリングを必要とするクリエーターに最適です。

2. Reallusion AI Renderワークフローの主要な特徴と利点

直接プラグイン統合: Reallusion AI Renderは、専用プラグインを介してiCloneとCharacter Creatorとネイティブに連携し、制作ツールを離れることなくリアルタイムのフィードバックとコントロールを可能にします。

3Dガイド付きControlNet: Reallusion AI RenderのControlNetノードを使用して、3Dシーンから深さ、ポーズ、法線、エッジデータをComfyUIにシームレスにマッピングし、映画的な一貫性とショットレベルのコントロールを実現します。

マルチイメージスタイリングサポート: Reallusion AI Renderワークフローには、柔軟なスタイルブレンドとリファレンスベースの方向性をサポートするAdditional Imageノードが含まれており、ルックを再利用したり、IPアダプティブレンダリングを実行するのが簡単です。

スマートアップスケールワークフロー: 専用のUpscaleDataノードにより、クリエーターはReallusion AI Renderプラグイン内で出力解像度を定義でき、最終レンダーがプロジェクト仕様に一致するようにします。

フルワークフロー自動化: 一般的なComfyUIワークフローとは異なり、Reallusion AI Renderは自動化を目的として設計されており、モデル、サンプリングステップ、CFG、オーディオ同期などのパラメータがプログラム的に渡され、バッチレンダリングやカスタムプリセットに準備されています。

プロダクション対応のキャラクター一貫性: LoRAトレーニングとIP作成ツールと組み合わせることで、Reallusion AI Renderはビデオシーケンス全体で顔の一貫性と視覚的忠実度を保持し、AI駆動のストーリーテリングに最適です。

3. ComfyUIでReallusion AI Renderを使用する方法

Reallusion AI Render基本ワークフロー

1.画像を準備する

AI Renderプラグインを使用してReallusion iCloneまたはCharacter Creatorから任意の画像をエクスポートします。画像がデフォルトのプラグインパス構造を使用して保存されていることを確認してください。これにより、すべてのガイダンス/コントロール画像(例:ポーズ、深度)が自動的に生成され、正しくリンクされます。

画像をComfyUI -> inputフォルダーにアップロードしてください。ファイル名がNodeで指定されたrender_output_pathと一致していることを確認してください。

Reallusion AI Render - images input folder

2.プロンプトとスタイルを設定する

iCloneまたはCharacter Creator AI RenderプラグインUI内に、明確なポジティブプロンプト(望むもの)とネガティブプロンプト(避けたいもの)を書き込みます。このワークフローは、これらを使用して出力の外観と詳細をガイドします。

3.マシンを接続してAI Renderを使用する-⭐重要

まず、iCloneまたはCharacter Creator内でAI Renderプラグインを起動し、RunComfy URLからidをコピーしてAI RenderにComfyUI Cloudを接続します。接続されると、プラグインはComfyUIパイプラインからプレビューされた画像やビデオを自動的に送信します。

このセットアップにより、AI Renderがマシンとシームレスに通信し、リアルタイムで結果をプレビュー、調整、改善できるようになります。接続を安定させることで、ポーズ、深度、スタイルガイダンスがすべてのレンダリングで正確に保たれます。

👉 フルステップバイステップビデオガイドはこちらでご覧ください: YouTube Tutorial


ノードの基本設定

1.プロンプトと品質設定 – RL AI Render UI Core Node このノードは、AI Renderプラグインから主要なパラメータを収集します。

  • positive_prompt / negative_prompt: 望む特徴と望まない特徴を説明します(デフォルト:空)。
  • steps: 画像を洗練するための反復回数。バランスの取れた品質/速度には28を開始点とします。
  • cfg: スタイルの遵守。柔軟性には1.0を使用し、プロンプトの影響を強めるには少し増やします。
  • denoise: 画像をどの程度変更するかを制御します。スタイライズされた更新には0.88を使用し、微妙な変更には低めにします。
Reallusion AI Render - Workflow Prompt&Steps&Denoise

2.ベースモデル設定 – Load Checkpoint Node

これは選択したモデル(例:Flux 1 Dev ControlNet)をロードします。

ckpt_name: スタイルで期待されるモデルに一致する必要があります(デフォルト:flux1-dev-fp8.safetensors)。

IPAdapterまたはControlNetをサポートするモデルを使用すると、最良の結果が得られます。

Reallusion AI Render - Workflow Checkpoint

3.構造ガイダンス – ControlNet Nodes (Pose, Depth, Canny) 各ControlNetノードは特定の入力ファイルを読み込みます(例:ポーズ画像);コントロールが有効な場合にのみアクティブです。

  • control_net_strength: 影響のレベル(ポーズは通常1.0、深さは通常0.5を使用します)。
  • start_percentとend_percentを調整して、生成中にガイダンスがいつフェードアウトするかを制御します。 Reallusion AI Render - Workflow ControlNet

4.プロンプトコンディショニング – Flux Guidance Node プロンプトが画像生成にどのように影響するかを調整します。

  • guidance: 高いほどプロンプトに厳密です。良いバランスには3.5を推奨します。
Reallusion AI Render - Workflow Guidance

5.テキストプロンプトエンコーディング – CLIP Text Encode Nodes プロンプトからベクトルガイダンスを生成します。

  • 手動で変更する必要はありません。プラグインからのテキストを受け入れます。
Reallusion AI Render - Workflow Prompt

ノードの高度なヒント

プロンプトの明確さ 過度に複雑または曖昧なプロンプトを避けてください。cinematic lighting、anime、cyberpunk alleyのような直接的なスタイルを使用します。より制御された結果を得るために具体的にしてください。

デノイズと構造のバランス ControlNetが有効な場合(例:Depth + Pose)、0.88の高いデノイズは構造を乱す可能性があります。レイアウトを優先する場合は0.6–0.75を試してください。

ControlNetと入力を一致させる 一致するガイダンス画像が存在する場合にのみControlNetを有効にします(例:RenderImageDepth.png for Depth)。不一致はプロンプトの失敗や空の結果を引き起こす可能性があります。

4. 謝辞

このワークフローは、Kijaiによって開発されたFlux-FP8モデルと、Reallusionチームによって公式AIレンダリングワークフローガイドで概説されたパフォーマンス最適化技術を統合しています。モデル開発への貢献に対してKijaiに特別な感謝を送り、ComfyUIワークフローでAIレンダリング効率を高める貴重な洞察を共有してくれたReallusionに感謝します。

5. Reallusion AI Renderに関するその他のリソース

Reallusion AI Renderに関連する技術リソースとドキュメントを探索します。

  • セットアップ / クイックスタートドキュメント – ComfyUIでAI Renderワークフローを構成するためのステップバイステップガイド。プレゼンテーションスライド
  • 技術概要 – AI Renderのオープンベータでの統合と機能の概要。製品発表
  • ワークフロー最適化ガイド – パフォーマンスを最大化し、AI Renderをプロダクション環境でカスタマイズするためのヒント。パフォーマンステクニック
  • iClone – iCloneソフトウェアの公式ページ。iCloneウェブサイト
  • Character Creator – Reallusion Character Creatorの公式ページ。Character Creatorウェブサイト
  • AI Renderオープンベータフォーラム – 公式Reallusionフォーラムでのディスカッションとアップデート。フォーラムリンク
  • AI Renderインストールチュートリアル – AI Renderのセットアップに関するビデオガイド。YouTubeチュートリアル
  • AI Render画像から画像へのワークフローチュートリアル – 画像から画像へのワークフローのビデオ解説。[YouTubeチュートリアル](https://www.youtube.com/watch?v=yrdfajson GZg6xY)
  • AI Renderビデオからビデオへのワークフローチュートリアル – ビデオからビデオへのワークフローのビデオ解説。YouTubeチュートリアル

Want More ComfyUI Workflows?

Flux Consistent Characters | Input Image

Flux Consistent Characters | Input Image

一貫性のあるキャラクターを作成し、画像を使用してそれらが均一に見えるようにします。

一貫したキャラクタークリエーター

感情、照明、環境を完全に制御しながら、複数の角度から一貫した高解像度のキャラクターデザインを作成します。

DreamO | 統合マルチタスク画像カスタマイズフレームワーク

1〜3枚の参照からアイデンティティ、スタイル、トライオン、マルチコンディション画像生成を実行

Fluxtapoz | RF Inversionとスタイライズ

FluxtapozノードによるRF Inversionとスタイライズ - アンサンプリングとサンプリング

FramePackラッパー | 効率的な長時間ビデオ生成

クラウドリソースを最小限に抑え、安定した60秒以上の長さのビデオを作成します。

BRIA AI RMBG 1.4 vs Segment Anything | 背景除去

BRIA AI RMBG 1.4 vs Segment Anything | 背景除去

BRIA AIのRMBG 1.4とSegment Anythingを比較して、効率的に背景を除去します。

IPAdapter Plus (V2) 注意マスク | 画像からビデオへ

IPAdapter Plus 注意マスクを活用し、画像生成プロセスを正確に制御します。

Linear Mask Dilation | 驚くべきアニメーション

被写体を変換し、異なるシーンをシームレスに移動させましょう。

フォローする
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
サポート
  • Discord
  • メール
  • システムステータス
  • アフィリエイト
リソース
  • 無料のComfyUIオンライン
  • ComfyUIガイド
  • RunComfy API
  • ComfyUIチュートリアル
  • ComfyUIノード
  • 詳細を見る
法的情報
  • 利用規約
  • プライバシーポリシー
  • Cookieポリシー
RunComfy
著作権 2025 RunComfy. All Rights Reserved.

RunComfyは最高の ComfyUI プラットフォームです。次のものを提供しています: ComfyUIオンライン 環境とサービス、および ComfyUIワークフロー 魅力的なビジュアルが特徴です。 RunComfyはまた提供します AI Playground, アーティストが最新のAIツールを活用して素晴らしいアートを作成できるようにする。