logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflows>Mochi Edit UnSampling | Video-zu-Video

Mochi Edit UnSampling | Video-zu-Video

Workflow Name: RunComfy/MochiEdit
Workflow ID: 0000...1159
Mochi Edit verwendet Genmo Mochi und diffusionsbasierte Techniken, um Videoframes zu transformieren, indem sie in Rauschen umgewandelt und mit prompt-gesteuerten Bearbeitungen, auch bekannt als Unsampling, neu abgetastet werden. Mit Mochi Edit nahtlos in ComfyUI integriert, können Benutzer einen nahtlosen Stiltransfer, Objektmodifikationen und flüssige Animationsbearbeitungs-Workflows erreichen.

Die ComfyUI-MochiEdit Knoten und der zugehörige Workflow wurden vollständig von logtd und Kijai entwickelt. Wir geben logtd und Kijai alle Anerkennung für diese innovative Arbeit. Auf der RunComfy-Plattform präsentieren wir lediglich ihre Beiträge an die Community. Wir schätzen die Arbeit von logtd und Kijai sehr!

Der Mochi Edit Workflow ist ein Werkzeug, das es Benutzern ermöglicht, Videoinhalte mit textbasierten Prompts zu modifizieren. Es unterstützt Aufgaben wie das Hinzufügen oder Ändern von Elementen (z.B. das Platzieren von Hüten auf Charakteren), das Anpassen des Gesamtstils oder das Ersetzen von Subjekten im Filmmaterial.

1. Mochi Edit Unsampling

Im Kern von Mochi Edit liegt die Unsampling-Technik. Mochi Edit's Unsampling-Technik nutzt einen vereinfachten Ansatz zur Bearbeitung von Videos und Bildern, der Transformationen durch multi-modale Prompts ermöglicht, ohne dass zusätzliche Vorverarbeitungsschritte oder externe Netzwerkmodule erforderlich sind. Die Kernidee hinter Mochi Edit's Unsampling besteht darin, die latente Darstellung des Videos direkt zu manipulieren, anstatt komplexe Operationen wie Gesichtserkennung oder Posenabschätzung durchzuführen, die in traditionellen Bildgenerierungspipelines üblich sind. Diese Methode ist auf das übergeordnete Ziel ausgerichtet, einen flexibleren und schlankeren Prozess zur Bildgenerierung zu schaffen, ähnlich wie GPT Text aus jedem Eingabeprompt generieren kann. Mit der Unsampling-Technik von Mochi Edit können Benutzer verschiedene Stile und Modifikationen direkt aus einer multi-modalen Beschreibung generieren, was den Prozess weitaus intuitiver und effizienter macht.

Kurz gesagt, Mochi Edit ermöglicht es Ihnen, kleine Variationen des hochgeladenen Videos zu erstellen. Wie das Kopieren und Übersetzen der Bewegung des Subjekts auf ein anderes Subjekt oder das Ändern der Hintergrundeinstellungen, das Ändern der Eigenschaften des Subjekts usw.

2. Wie benutzt man den Mochi Edit Workflow?

Mochi Edit

In diesem Workflow sind die linken grünen Knoten die Eingaben für Video und Text, die mittleren lila Knoten sind die Mochi Unsampler und Sampler Knoten, und rechts blau ist der Videoausgabeknoten.


2.1 Video-Knoten laden

Mochi Edit

  • Klicken Sie und laden Sie Ihr Video im Video-Laden-Knoten hoch
  • frame_load_cap: ist standardmäßig auf 32 Frames gesetzt. Über 32 Frames werden Springartefakte beobachtet. Halten Sie unter 3 Sekunden (32) Frames für beste Ergebnisse.
  • skip_frames: Überspringen Sie Frames, wenn Sie von einem bestimmten Frame aus starten möchten.

Verwenden Sie das quadratische Format (512 x 512) oder das horizontale (848 x 480) Format im Upscale-Knoten. Andere führen zu Fehlern.

2.2 Prompts

Mochi Edit

Dies ist ein experimenteller Gebrauch, manchmal kann es funktionieren oder manchmal nicht oder manchmal das Originalvideo vollständig verändern.

  • Verwenden Sie kleine Variationen des Subjekts als Prompt.
  • Starke Variationen können das Bild komplett verzerren und verändern.
  • Versuchen Sie einen anderen Seed, wenn Sie nicht die gewünschten Ergebnisse erzielen.

2.3 Sampling und Unsampling Knoten-Gruppen

Mochi Edit

Die Sampling und Unsampling Ksampler sind vom Autor auf die besten Einstellungen gesetzt. Wenn die Einstellungen vage bearbeitet werden, können seltsame, unerwünschte Ergebnisse entstehen. Experimentieren Sie mit:

  • Sampler's Seed für Variationen
  • num_steps und linear_step, um die Rendering-Qualität oder Geschwindigkeit zu ändern.
  • eta, start_step und end_Step, um die Unsampling-Stärke, den Start- und Endprozentsatz zu ändern.

2.4 Mochi Modelle

Mochi Edit

Modelle werden automatisch aus diesem HuggingFace Repo in Ihr ComfyUI heruntergeladen. Es dauert etwa 5-10 Minuten, um das 10,3-GB-Modell beim ersten Mal herunterzuladen.


Mochi Edit's Unsampling-Technik revolutioniert die Video- und Bildbearbeitung, indem sie den Prozess vereinfacht und die Notwendigkeit für komplexe Vorverarbeitung oder zusätzliche Module beseitigt. Dieser innovative Ansatz ermöglicht es Benutzern, mühelos hochwertige, maßgeschneiderte Visuals durch multi-modale Prompts zu erzeugen. Durch die Kombination von Flexibilität und Zugänglichkeit ebnet Mochi Edit den Weg für eine intuitivere und kreativere Zukunft der Bildgenerierung.

Want More ComfyUI Workflows?

Mochi 1 | Genmo Text-to-Video

Text-zu-Video-Demo mit dem Genmo Mochi 1 Modell

Hunyuan LoRA

Verwenden Sie heruntergeladene Hunyuan LoRAs, um Stil und Charakterkonsistenz bei der Videogenerierung zu steuern.

IPAdapter Plus (V2) | Kleidung ändern

IPAdapter Plus (V2) | Kleidung ändern

Verwenden Sie IPAdapter Plus für die Erstellung Ihrer Modemodelle und ändern Sie mühelos Outfits und Stile

IC-Light | Bildneubeleuchtung

IC-Light | Bildneubeleuchtung

Hintergründe bearbeiten, Beleuchtung verbessern und neue Szenen einfach regenerieren.

SVD + IPAdapter V1 | Bild zu Video

Verwenden Sie IPAdapters für die statische Bilderzeugung und Stable Video Diffusion für die dynamische Videoerzeugung.

ByteDance USO | Einheitlicher Stil- & Themen-Generator

ByteDance USO macht die Verschmelzung von Thema und Stil einfach und leistungsstark.

CCSR | Konsistenter Bild-/Video-Upscaler

Das CCSR-Modell verbessert das Upscaling von Bildern und Videos durch stärkere Fokussierung auf Inhaltsbeständigkeit.

FLUX ControlNet Depth-V3 & Canny-V3

Erreichen Sie bessere Kontrolle mit FLUX-ControlNet-Depth & FLUX-ControlNet-Canny für FLUX.1 [dev].

Folge uns
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Support
  • Discord
  • E-Mail
  • Systemstatus
  • Partner
Ressourcen
  • Kostenloses ComfyUI Online
  • ComfyUI Anleitungen
  • RunComfy API
  • ComfyUI Tutorials
  • ComfyUI Nodes
  • Erfahre mehr
Rechtliches
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Cookie-Richtlinie
RunComfy
Urheberrecht 2025 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen. RunComfy bietet auch AI-Spielplatz, Künstlern ermöglichen, die neuesten AI-Tools zu nutzen, um unglaubliche Kunst zu schaffen.