logo
RunComfy
  • ComfyUI
  • TrainerNeu
  • Modelle
  • API
  • Preise
discord logo
ComfyUI>Workflows>Produkt Beleuchtungs-Video | Vid2Vid

Produkt Beleuchtungs-Video | Vid2Vid

Workflow Name: RunComfy/Relighting-Video
Workflow ID: 0000...1110
Dieser Workflow erzeugt Beleuchtungsvideos unter Verwendung eines Videos und Lichtmasken und unterstützt bewegte Motive mit bewegten oder stillen Lichtmasken sowie unbewegte Motive mit bewegten Lichtmasken.

Übersicht des Produkt Beleuchtungs-Video-Workflows

Dieser Workflow ermöglicht es Ihnen, ein Video und eine oder mehrere Lichtmasken einzugeben, um ein Beleuchtungsvideo zu erstellen. Er unterstützt drei Szenarien:

  1. Bewegtes Motiv mit einer bewegten Lichtmaske
  2. Unbewegtes Motiv mit einer bewegten Lichtmaske
  3. Bewegtes Motiv mit einer stillen Lichtmaske

Obwohl dieser Beleuchtungsvideo-Workflow experimentell ist und möglicherweise keine perfekten Ergebnisse liefert, stellt er einen bedeutenden Schritt in Richtung nicht-animateDiff-Pipelines dar, die Produkttreue über perfekte Frame-Merging im Beleuchtungsvideo-Prozess priorisieren.

Eingaben und Variablen für Beleuchtungsvideo

Um den Workflow auszuführen und die gewünschten Beleuchtungseffekte im Video zu erzielen, müssen Sie die folgenden Eingaben und Variablen bereitstellen:

  • Quellvideo: Das zu beleuchtende Eingabevideo
  • Anzahl der Frames: Die Gesamtzahl der zu bearbeitenden Frames
  • Anzahl der zu überspringenden Anfangsframes: Die Anzahl der Frames, die vom Anfang des Videos übersprungen werden
  • Stilles oder Bewegtes Motiv: Ein boolescher Schalter, um anzugeben, ob das Motiv still oder bewegt ist
  • Größe der längeren Seite (Größe ändern): Die Größe, auf die die Frames basierend auf der längeren Seite geändert werden
  • Zwei Lichtmasken: Entweder die Anfangs- und Endpositionen der Lichtmaske (für eine bewegte Lichtmaske) oder dieselbe Lichtmaske (für eine stille Lichtmaske)
  • Lichtaufforderung: Ein Textaufforderung, die die gewünschte Beleuchtung beschreibt
  • CFG: Ein Wert zwischen 1.05 und 3 zur Steuerung der Stärke der Lichtänderungen (höhere Werte führen zu auffälligeren Änderungen, aber auch zu einer höheren Wahrscheinlichkeit von Artefakten)
  • Denoise: Ein Wert zwischen 0.3 und 0.6 zur Steuerung der Entstärkungsstärke (höhere Werte führen zu weniger Flimmern, können jedoch dazu führen, dass die Lichtmaske mehr wie ein Filter aussieht)

Wie der Beleuchtungs-Video-Workflow funktioniert

  1. Der Workflow verwendet IC-Light, um jeden Frame unabhängig zu beleuchten.
  2. Für jeden Frame wird ein Latent basierend auf einer Mischung aus dem Motiv-Frame und dem entsprechenden Lichtmasken-Frame generiert.
  3. Das Latent wird bei einem niedrigen Denoise-Wert generiert, um die Lichtmaske auf das Endergebnis zu erzwingen.
  4. Da IC-Light bei niedrigen Entstärkungswerten Details verlieren kann, werden die Details und Originalfarben am Ende des Workflows mithilfe der Frequenztrennung zurückübertragen, um die Videoqualität nach der Beleuchtung zu erhalten.

Want More ComfyUI Workflows?

Produkt-Neubeleuchtung | Magnific.AI Relight Alternative

Heben Sie Ihre Produktfotografie mühelos auf ein neues Niveau, eine erstklassige Alternative zu Magnific.AI Relight.

IC-Light | Bildneubeleuchtung

IC-Light | Bildneubeleuchtung

Hintergründe bearbeiten, Beleuchtung verbessern und neue Szenen einfach regenerieren.

Qwen Image Edit Plus 2511 LoRA Inferenz | AI Toolkit ComfyUI

Halten Sie AI Toolkit-trainierte Qwen Image Edit Plus 2511 LoRA Bearbeitungen in der ComfyUI-Vorschau ausgerichtet mit einem einzigen RCQwenImageEditPlus2511 benutzerdefinierten Knoten.

Hunyuan Image 2.1 | Hochauflösender AI-Bildgenerator

Next-gen 2.1 Modell für klare, scharfe, ultra-klare AI-Visualisierungen in kürzester Zeit.

Wan 2.1 Ditto | Generator für filmische Videoumgestaltung

Verwandeln Sie Videos in atemberaubende künstlerische Stile mit perfektem Bewegungsfluss.

Flux PuLID für Gesichtstausch

Flux PuLID für Gesichtstausch

Bringen Sie Ihre Gesichtstauschprojekte mit Flux PuLID auf ein neues Niveau.

Pyramid Flow | Videoerstellung

Einschließlich sowohl Text-zu-Video als auch Bild-zu-Video Modus.

AnimateDiff + ControlNet TimeStep KeyFrame | Morphing-Animation

Setzen Sie ControlNet Timestep KeyFrames, wie den ersten und letzten Frame, um Morphing-Animationen zu erstellen.

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2026 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI Models, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.