logo
RunComfy
  • ComfyUI
  • TrainerNew
  • Models
  • API
  • Pricing
discord logo
ComfyUI>Fluxos de Trabalho>LTX 2.3 LoRA Inferência | AI Toolkit ComfyUI

LTX 2.3 LoRA Inferência | AI Toolkit ComfyUI

Workflow Name: RunComfy/LTX-2.3-LoRA-ComfyUI-Inference
Workflow ID: 0000...1382
LTX 2.3 LoRA ComfyUI Inferência é um workflow pronto para uso RunComfy para aplicar um LoRA treinado com o AI Toolkit ao LTX 2.3 dentro do ComfyUI. Em vez de reconstruir o LTX 2.3 com um gráfico de amostrador genérico, ele direciona a geração através do LTX2Pipeline, um wrapper específico do modelo alinhado ao pipeline de pré-visualização do AI Toolkit. Este alinhamento a nível de pipeline mantém a injeção de LoRA consistente e preserva os padrões corretos do LTX 2.3 para saídas de vídeo repetíveis e compatíveis com o treinamento. Carregue um único adaptador de `ComfyUI/models/loras` (download local) ou um URL direto `.safetensors`, depois combine `lora_scale` e seus valores de amostragem com suas amostras de treinamento quando necessário. Os vídeos de saída são salvos via SaveVideo para fácil comparação lado a lado com as pré-visualizações de treinamento.

LTX 2.3 LoRA ComfyUI Inferência: saída de LoRA do AI Toolkit compatível com treinamento com o pipeline LTX 2.3

Este workflow pronto para produção RunComfy executa a inferência LTX 2.3 LoRA no ComfyUI através de RC LTX 2.3 (LTX2Pipeline) (alinhamento a nível de pipeline, não um gráfico de amostrador genérico). RunComfy construiu e disponibilizou este nó personalizado — veja os repositórios runcomfy-com — e você controla a aplicação do adaptador com lora_path e lora_scale.

Nota: Este workflow requer uma máquina 2X Large ou maior para funcionar.

Por que a inferência LTX 2.3 LoRA ComfyUI muitas vezes parece diferente no ComfyUI

As pré-visualizações de treinamento do AI Toolkit são renderizadas através de um pipeline específico do modelo LTX 2.3, onde a codificação de texto, programação e injeção de LoRA são projetadas para funcionar juntas. No ComfyUI, reconstruir o LTX 2.3 com um gráfico diferente (ou um caminho de carregador de LoRA diferente) pode alterar essas interações, então copiar o mesmo prompt, etapas, CFG e semente ainda produz um desvio visível. Os nós do pipeline RC RunComfy fecham essa lacuna executando o LTX 2.3 de ponta a ponta no LTX2Pipeline e aplicando seu LoRA dentro desse pipeline, mantendo a inferência alinhada com o comportamento da pré-visualização. Fonte: Repositórios de código aberto RunComfy.

Como usar o workflow de inferência LTX 2.3 LoRA ComfyUI

Passo 1: Obtenha o caminho do LoRA e carregue-o no workflow (2 opções)

Opção A — Resultado de treinamento RunComfy → download para ComfyUI local:

  1. Acesse Trainer → LoRA Assets
  2. Encontre o LoRA que você deseja usar
  3. Clique no menu ⋮ (três pontos) à direita → selecione Copy LoRA Link
  4. Na página do workflow ComfyUI, cole o link copiado no campo de entrada Download no canto superior direito da interface
  5. Antes de clicar em Download, certifique-se de que a pasta de destino esteja definida como ComfyUI > models > loras (esta pasta deve ser selecionada como o destino do download)
  6. Clique em Download — isso garante que o arquivo LoRA seja salvo no diretório correto models/loras
  7. Após o término do download, atualize a página
  8. O LoRA agora aparece no dropdown de seleção de LoRA no workflow — selecione-o

Opção B — URL direto do LoRA (substitui a Opção A):

  1. Cole o URL direto de download .safetensors no campo de entrada path / url do nó LoRA
  2. Quando um URL é fornecido aqui, ele substitui a Opção A — o workflow carrega o LoRA diretamente do URL em tempo de execução
  3. Nenhum download local ou posicionamento de arquivo é necessário

Dica: confirme se o URL resolve para o arquivo real .safetensors (não uma página de destino ou redirecionamento).

Passo 2: Combine os parâmetros de inferência com as configurações de amostra de treinamento

No nó LoRA, selecione seu adaptador em lora_path (Opção A), ou cole um link direto .safetensors em path / url (Opção B substitui o dropdown). Em seguida, defina lora_scale para a mesma força que você usou durante as pré-visualizações de treinamento e ajuste a partir daí.

Os parâmetros restantes estão no nó Generate (e, dependendo do gráfico, no nó Load Pipeline):

  • prompt: seu prompt de texto (inclua palavras de gatilho se você treinou com elas)
  • width / height: resolução de saída; combine com o tamanho da pré-visualização de treinamento para a comparação mais limpa (múltiplos de 32 são recomendados para LTX 2.3)
  • num_frames: número de quadros de vídeo de saída
  • sample_steps: número de etapas de inferência (30 é um padrão comum)
  • guidance_scale: valor de CFG/orientação (5.5 é um padrão comum; não exceda 7)
  • seed: semente fixa para reproduzir; altere-a para explorar variações
  • seed_mode (somente se presente): escolha fixed ou randomize
  • frame_rate: FPS de saída; mantenha consistente com as configurações de treinamento para alinhamento de movimento

Dica de alinhamento de treinamento: se você personalizou os valores de amostragem durante o treinamento (seed, guidance_scale, sample_steps, palavras de gatilho, resolução), espelhe esses valores exatos aqui. Se você treinou no RunComfy, abra Trainer → LoRA Assets > Config para visualizar o YAML resolvido e copiar as configurações de pré-visualização/amostra nos nós do workflow.

Passo 3: Execute a Inferência LTX 2.3 LoRA ComfyUI

Clique em Queue/Run — o nó SaveVideo grava os resultados na sua pasta de saída do ComfyUI.

Lista de verificação rápida:

  • ✓ LoRA está: baixado em ComfyUI/models/loras (Opção A), ou carregado via um URL direto .safetensors (Opção B)
  • ✓ Página atualizada após o download local (somente Opção A)
  • ✓ Parâmetros de inferência correspondem à configuração de sample de treinamento (se personalizada)

Se tudo acima estiver correto, os resultados da inferência aqui devem corresponder de perto às suas pré-visualizações de treinamento.

Solucionando problemas de Inferência LTX 2.3 LoRA ComfyUI

A maioria das diferenças "pré-visualização de treinamento vs inferência ComfyUI" LTX 2.3 vem de diferenças a nível de pipeline (como o modelo é carregado, programado e como o LoRA é mesclado), não de um único ajuste errado. Este workflow RunComfy restaura a linha de base "compatível com treinamento" mais próxima executando a inferência através de RC LTX 2.3 (LTX2Pipeline) de ponta a ponta e aplicando seu LoRA dentro desse pipeline via lora_path / lora_scale (em vez de empilhar nós de carregador/amostrador genéricos).

(1) Incompatibilidades de forma do LoRA ou avisos "chave não carregada"

Por que isso acontece O LoRA foi treinado para uma família de modelos diferente ou uma variante LTX diferente. Você verá muitas linhas lora key not loaded e potencialmente erros de incompatibilidade de forma.

Como corrigir (recomendado)

  • Certifique-se de que o LoRA foi treinado especificamente para LTX 2.3 com AI Toolkit (LoRAs LTX 2.0 / 2.1 / 2.2 não são intercambiáveis).
  • Mantenha o gráfico "caminho único" para LoRA: carregue o adaptador somente através da entrada lora_path do workflow e deixe o LTX2Pipeline lidar com a mesclagem. Não empilhe um carregador de LoRA genérico adicional em paralelo.
  • Se você já encontrou uma incompatibilidade e o ComfyUI começa a produzir erros de CUDA/OOM não relacionados depois, reinicie o processo ComfyUI para redefinir completamente o estado da GPU + modelo, depois tente novamente com um LoRA compatível.

(2) Resultados de inferência não correspondem às pré-visualizações de treinamento

Por que isso acontece Mesmo quando o LoRA é carregado, os resultados ainda podem desviar se seu gráfico ComfyUI não corresponder ao pipeline de pré-visualização de treinamento (padrões diferentes, caminho de injeção de LoRA diferente, programação diferente).

Como corrigir (recomendado)

  • Use este workflow e cole seu link direto .safetensors em lora_path.
  • Copie os valores de amostragem da sua configuração de treinamento do AI Toolkit (ou RunComfy Trainer → LoRA Assets Config): width, height, num_frames, sample_steps, guidance_scale, seed, frame_rate.
  • Mantenha "pilhas de velocidade extra" fora da comparação, a menos que você tenha treinado/amostrado com elas.

(3) Uso de LoRAs aumenta significativamente o tempo de inferência

Por que isso acontece Um LoRA pode tornar o LTX 2.3 muito mais lento quando o caminho do LoRA força trabalho extra de patching/dequantization ou aplica pesos em um caminho de código mais lento do que o modelo base sozinho.

Como corrigir (recomendado)

  • Use o caminho RC LTX 2.3 (LTX2Pipeline) deste workflow e passe seu adaptador através de lora_path / lora_scale. Neste setup, o LoRA é mesclado uma vez durante o carregamento do pipeline (estilo AI Toolkit), então o custo de amostragem por etapa permanece próximo ao modelo base.
  • Quando você está buscando comportamento compatível com pré-visualização, evite empilhar múltiplos carregadores de LoRA ou misturar caminhos de carregador. Mantenha para um lora_path + um lora_scale até que a linha de base corresponda.

(4) Erros de OOM em resoluções grandes ou vídeos longos

Por que isso acontece LTX 2.3 é um modelo de 22 bilhões de parâmetros e a geração de vídeo é intensiva em VRAM. Altas resoluções ou muitos quadros podem exceder a memória da GPU, especialmente com a sobrecarga de LoRA.

Como corrigir (recomendado)

  • Use uma máquina 2X Large (80 GB VRAM) ou maior. Este workflow não é compatível com máquinas Medium, Large ou X Large.
  • Reduza a resolução ou a contagem de quadros se você precisar iterar rapidamente, depois aumente para renderizações finais.
  • Ative o VAE tiling se disponível — pode economizar ~3 GB de VRAM com perda mínima de qualidade.

Execute agora a Inferência LTX 2.3 LoRA ComfyUI

Abra o workflow, defina lora_path, e clique em Queue/Run para obter resultados LTX 2.3 LoRA que permanecem próximos às suas pré-visualizações de treinamento do AI Toolkit.

Want More ComfyUI Workflows?

Flux Upscaler - Ultimate 32k | Image Upscaler

Flux Upscaler - Ultimate 32k | Image Upscaler

Flux Upscaler – Alcance resolução de 4k, 8k, 16k e Ultimate 32k!

Stable Cascade | Texto para Imagem

Stable Cascade | Texto para Imagem

Stable Cascade, um modelo de texto para imagem que se destaca no alinhamento de prompts e na estética.

Stable Audio Open 1.0 | Ferramenta Texto-para-Música

Transforma prompts de texto em música cinematográfica de forma contínua e rápida.

Inferência Qwen Image LoRA | AI Toolkit ComfyUI

Mantenha a inferência Qwen Image LoRA treinada com AI Toolkit no ComfyUI alinhada à pré-visualização usando um único nó personalizado RCQwenImage.

Flux Redux | Variação e Restilização

Flux Tools Oficial - Flux Redux para Variação e Restilização de Imagens

AnimateDiff + ControlNet + AutoMask | Estilo de Quadrinhos

Reestilize vídeos sem esforço, convertendo personagens realistas em anime enquanto mantém os planos de fundo originais intactos.

Wan 2.2 | Líder em Geração de Vídeo Open-Source

Disponível agora! Melhor precisão + movimento mais suave.

IPAdapter Plus (V2) | Mudar de roupa

IPAdapter Plus (V2) | Mudar de roupa

Use o IPAdapter Plus para a criação de seus modelos de moda, mudando facilmente de trajes e estilos

Siga-nos
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Suporte
  • Discord
  • E-mail
  • Status do Sistema
  • afiliado
Recursos
  • ComfyUI Online Gratuito
  • Guias do ComfyUI
  • RunComfy API
  • Tutoriais do ComfyUI
  • Nós do ComfyUI
  • Saiba Mais
Legal
  • Termos de Serviço
  • Política de Privacidade
  • Política de Cookies
RunComfy
Copyright 2026 RunComfy. Todos os Direitos Reservados.

RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes. RunComfy também oferece AI Models, permitindo que artistas utilizem as mais recentes ferramentas de AI para criar arte incrível.