RunComfy's Cloud ist nicht auf FLUX.1-dev ControlNet für Reallusion AI Render beschränkt. Sie können Checkpoints, ControlNets, LoRAs, VAEs und verwandte Knoten austauschen, um zusätzliche Reallusion-Workflows und Modelle auszuführen, die unten aufgeführt sind.
Holen Sie sich mehr Reallusion ComfyUI Workflows: Holen Sie sich mehr Workflow-Vorlagen, die Sie in RunComfy herunterladen und ausführen können. Klicken Sie auf die Schaltfläche "Workflows" und probieren Sie mehr aus.
ist ein Entwickler von Echtzeit-2D/3D-Charaktererstellungs- und Animationssoftware, bekannt für iClone und Character Creator, die in Film/TV, Spielen, Archviz, digitalen Zwillingen und AI-Simulationen eingesetzt werden. Reallusion AI Render ist eine nahtlose Brücke zwischen 3D-Animationssoftware und AI-gestützten Content-Generierungs-Workflows. Stellen Sie sich das als einen AI-Render-Assistenten vor, der Layout-, Pose-, Kamera- oder Beleuchtungsdaten direkt von iClone oder Character Creator entgegennimmt – und diesen Kontext nutzt, um automatisch reich detaillierte Bilder oder Videos in ComfyUI zu erstellen. Diese Integration vereint Reallusions Echtzeit-3D-Erstellungstools mit ComfyUI's flexibler, knotenbasierter AI-Verarbeitungsarchitektur und macht bild- und videobasierte Geschichten sowohl künstlerisch gesteuert als auch eng durch 3D-Daten geleitet. Reallusion AI Render unterstützt multimodale Eingaben wie Tiefenkarten, Normalenkarten, Kantenerkennung (Canny), 3D-Pose-Daten und Stilbilder über IPAdapter. Und dank seiner benutzerdefinierten Core-, ControlNet-, Additional Image- und Upscale-Knoten können Animatoren und Entwickler konsistente, stilisierte, hochwertige Ergebnisse vollständig unter Plugin-Kontrolle rendern – ohne ComfyUI manuell navigieren zu müssen.
Durch die Interpretation strukturierter Anweisungen und deren Kombination mit internen Parameter-Voreinstellungen verwandelt Reallusion AI Render die promptbasierte Generierung in einen präzisen, replizierbaren Produktionsprozess. Es ist maßgeschneidert für Kreative in Film, Spielen oder kommerziellen Geschichten, die konsistente Charaktere, feinkörnige Stilkontrolle und framegenaue AI-unterstützte Sequenz-Rendering benötigen.
Direkte Plugin-Integration: Reallusion AI Render arbeitet nativ mit iClone und Character Creator über ein dediziertes Plugin, das Echtzeit-Feedback und Kontrolle ermöglicht, ohne Ihre Produktionstools zu verlassen.
3D-gestützte ControlNet: Kartieren Sie nahtlos Tiefe-, Pose-, Normalen- und Kantendaten direkt aus Ihrer 3D-Szene in ComfyUI mit Reallusion AI Render’s ControlNet-Knoten – für filmische Konsistenz und Aufnahmeebenenkontrolle.
Multi-Bild-Stilunterstützung: Der Reallusion AI Render Workflow umfasst Additional Image-Knoten, die flexibles Stilblending und referenzbasierte Ausrichtung unterstützen, sodass es einfach ist, Looks wiederzuverwenden oder fortschrittliches IP-Adaptive-Rendering durchzuführen.
Intelligenter Upscale-Workflow: Ein dedizierter UpscaleData-Knoten ermöglicht es Kreativen, die Ausgabeauflösung innerhalb des Reallusion AI Render Plugins zu definieren, um sicherzustellen, dass die endgültigen Renderings den Projektspezifikationen entsprechen, ohne zu raten.
Vollständige Workflow-Automatisierung: Im Gegensatz zu generischen ComfyUI-Workflows ist Reallusion AI Render für die Automatisierung konzipiert – Parameter wie Modell, Abtastschritte, CFG und Audiosynchronisation werden programmgesteuert übergeben, bereit für Stapelverarbeitung oder benutzerdefinierte Voreinstellungen.
Produktionsreife Charakterkonsistenz: In Kombination mit LoRA-Training und IP-Erstellungstools bewahrt Reallusion AI Render die Gesichtsintegrität und visuelle Treue über Videosequenzen hinweg, was es ideal für AI-gestütztes Geschichtenerzählen macht.
Reallusion AI Render Grundworkflow
Bereiten Sie Ihr Bild vor Exportieren Sie ein beliebiges Bild aus Reallusion iClone oder Character Creator mit ihrem AI Render Plugin. Stellen Sie sicher, dass das Bild unter Verwendung der Standard-Plugin-Pfadstruktur gespeichert wird. Dies stellt sicher, dass alle Leitbild-/Kontrollbilder (z.B. Pose, Tiefe) automatisch generiert und korrekt verknüpft werden.
Bitte laden Sie die Bilder in den ComfyUI -> input-Ordner hoch. Stellen Sie sicher, dass die Dateinamen mit dem render_output_path übereinstimmen, der im Node angegeben ist.
Setzen Sie Eingabeaufforderungen und Stil Schreiben Sie eine klare positive Eingabeaufforderung (was Sie wollen) und eine negative Eingabeaufforderung (was vermieden werden soll) in der iClone- oder Character Creator AI Render-Plugin-Oberfläche. Der Workflow wird diese verwenden, um das Aussehen und die Details des Outputs zu steuern.
Essentielle Einstellungen
1. Eingabeaufforderungs- & Qualitätseinstellungen – RL AI Render UI Core Node Dieser Knoten sammelt die Hauptparameter aus dem AI Render Plugin.
2. Basismodell-Einstellungen – Checkpoint-Node laden
Dies lädt Ihr gewähltes Modell (z.B. Flux 1 Dev ControlNet).
ckpt_name: Muss mit dem Modell übereinstimmen, das von Ihrem Stil erwartet wird (Standard: flux1-dev-fp8.safetensors
).
Verwenden Sie Modelle, die IPAdapter oder ControlNet unterstützen, für beste Ergebnisse.
3. Strukturleitfaden – ControlNet-Knoten (Pose, Tiefe, Canny) Jeder ControlNet-Knoten lädt eine spezifische Eingabedatei (z.B. Pose-Bild); nur aktiv, wenn die Steuerung aktiviert ist.
4. Eingabeaufforderungs-Konditionierung – Flux Guidance Node Passt an, wie die Eingabeaufforderung die Bildgenerierung formt.
5. Text-Eingabeaufforderungs-Codierung – CLIP Text Encode Nodes Erzeugt Vektoranleitung aus Ihren Eingabeaufforderungen.
Erweiterte Tipps
Eingabeaufforderungsklarheit
Vermeiden Sie übermäßig komplexe oder vage Eingabeaufforderungen. Verwenden Sie direkte Stile wie cinematische Beleuchtung
, Anime
oder Cyberpunk-Allee
. Seien Sie spezifisch für mehr kontrollierte Ergebnisse.
Balance zwischen Entrauschen und Struktur Wenn ControlNet aktiviert ist (z.B. Tiefe + Pose), kann ein hohes Entrauschen wie 0.88 die Struktur stören. Versuchen Sie 0.6–0.75, wenn die Beibehaltung des Layouts Priorität hat.
Übereinstimmung der Eingaben mit ControlNet
Aktivieren Sie ein ControlNet nur, wenn ein passendes Leitbild existiert (z.B. RenderImageDepth.png
für Tiefe). Eine Nichtübereinstimmung kann zu fehlgeschlagenen Eingabeaufforderungen oder leeren Ergebnissen führen.
Dieser Workflow integriert das Flux-FP8-Modell, das von entwickelt wurde, mit Leistungsoptimierungstechniken, die vom Reallusion-Team in ihrem offiziellen AI-Rendering beschrieben werden. Besondere Anerkennung an Kijai für ihren Beitrag zur Modellentwicklung und an Reallusion für das Teilen wertvoller Einblicke, die die Effizienz des AI-Renderings in ComfyUI-Workflows verbessern.
Erkunden Sie technische Ressourcen und Dokumentationen zu Reallusion AI Render.
RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.