LTX 2.3 LoRA ComfyUI Inference: вывод AI Toolkit LoRA, соответствующий обучению, с использованием конвейера LTX 2.3
Этот готовый к производству рабочий процесс RunComfy выполняет вывод LTX 2.3 LoRA в ComfyUI через RC LTX 2.3 (LTX2Pipeline) (согласование на уровне конвейера, а не универсальный график выборки). RunComfy разработал и сделал открытым этот пользовательский узел — смотрите репозитории runcomfy-com — и вы управляете приложением адаптера с помощью lora_path и lora_scale.
Примечание: для работы этого рабочего процесса требуется машина 2X Large или больше.
Почему LTX 2.3 LoRA ComfyUI Inference часто выглядит иначе в ComfyUI
Предварительные просмотры обучения AI Toolkit рендерятся через специфический для модели конвейер LTX 2.3, где кодирование текста, планирование и инъекция LoRA разработаны для совместной работы. В ComfyUI перестройка LTX 2.3 с другим графиком (или другим путем загрузчика LoRA) может изменить эти взаимодействия, поэтому копирование того же самого запроса, шагов, CFG и семени все равно приводит к видимому дрейфу. Узлы конвейера RunComfy RC закрывают этот разрыв, выполняя LTX 2.3 от начала до конца в LTX2Pipeline и применяя вашу LoRA внутри этого конвейера, сохраняя согласованность вывода с предварительным просмотром. Источник: открытые репозитории RunComfy.
Как использовать рабочий процесс LTX 2.3 LoRA ComfyUI Inference
Шаг 1: Получите путь LoRA и загрузите его в рабочий процесс (2 варианта)
Вариант A — Результат обучения RunComfy → загрузка в локальный ComfyUI:
- Перейдите на Тренер → LoRA Assets
- Найдите LoRA, которую хотите использовать
- Нажмите меню ⋮ (три точки) справа → выберите Копировать ссылку LoRA
- На странице рабочего процесса ComfyUI вставьте скопированную ссылку в поле ввода Загрузить в верхнем правом углу интерфейса
- Перед нажатием Загрузить убедитесь, что целевая папка установлена на ComfyUI > models > loras (эта папка должна быть выбрана как целевая для загрузки)
- Нажмите Загрузить — это гарантирует, что файл LoRA будет сохранен в правильном каталоге
models/loras - После завершения загрузки обновите страницу
- Теперь LoRA появится в выпадающем списке выбора LoRA в рабочем процессе — выберите ее
Вариант B — Прямой URL LoRA (заменяет Вариант A):
- Вставьте прямой URL загрузки
.safetensorsв поле вводаpath / urlузла LoRA - Когда здесь предоставлен URL, он заменяет Вариант A — рабочий процесс загружает LoRA напрямую из URL во время выполнения
- Локальная загрузка или размещение файла не требуется
Совет: убедитесь, что URL разрешается в фактический файл .safetensors (а не на целевую страницу или перенаправление).
Шаг 2: Сопоставьте параметры вывода с настройками ваших примеров обучения
В узле LoRA выберите ваш адаптер в lora_path (Вариант A), или вставьте прямую ссылку .safetensors в path / url (Вариант B заменяет выпадающий список). Затем установите lora_scale на ту же силу, которую вы использовали во время предварительных просмотров обучения, и отрегулируйте оттуда.
Оставшиеся параметры находятся на узле Generate (и, в зависимости от графика, на узле Load Pipeline):
prompt: ваш текстовый запрос (включите триггерные слова, если вы обучали с ними)width/height: разрешение вывода; сопоставьте размер вашего предварительного просмотра обучения для чистого сравнения (рекомендуются кратные 32 для LTX 2.3)num_frames: количество кадров выходного видеоsample_steps: количество шагов вывода (30 является распространенным значением по умолчанию)guidance_scale: значение CFG/направления (5.5 является распространенным значением по умолчанию; не превышайте 7)seed: фиксированное семя для воспроизведения; измените его для изучения вариацийseed_mode(только если присутствует): выберитеfixedилиrandomizeframe_rate: выходной FPS; держите его в соответствии с настройками обучения для согласования движения
Совет по согласованию обучения: если вы настраивали значения выборки во время обучения (seed, guidance_scale, sample_steps, триггерные слова, разрешение), отразите эти значения здесь. Если вы обучали на RunComfy, откройте Тренер → LoRA Assets > Config, чтобы просмотреть разрешенный YAML и скопировать настройки предварительного просмотра/выборки в узлы рабочего процесса.
Шаг 3: Запустите LTX 2.3 LoRA ComfyUI Inference
Нажмите Queue/Run — узел SaveVideo записывает результаты в вашу папку вывода ComfyUI.
Быстрый чек-лист:
- ✓ LoRA либо: загружена в
ComfyUI/models/loras(Вариант A), либо загружена через прямой URL.safetensors(Вариант B) - ✓ Страница обновлена после локальной загрузки (только Вариант A)
- ✓ Параметры вывода соответствуют конфигурации
sampleобучения (если настроено)
Если все вышеуказанное верно, результаты вывода здесь должны тесно соответствовать вашим предварительным просмотрам обучения.
Устранение неполадок LTX 2.3 LoRA ComfyUI Inference
Большинство разрывов между "предварительным просмотром обучения и выводом ComfyUI" LTX 2.3 возникает из-за различий на уровне конвейера (как модель загружается, планируется и как LoRA соединяется), а не из-за одного неправильно настроенного элемента. Этот рабочий процесс RunComfy восстанавливает наиболее близкий "базовый уровень, соответствующий обучению", выполняя вывод через RC LTX 2.3 (LTX2Pipeline) от начала до конца и применяя вашу LoRA внутри этого конвейера через lora_path / lora_scale (вместо наложения дополнительных универсальных узлов загрузчика/выборки).
(1) Несоответствия формы LoRA или предупреждения "ключ не загружен"
Почему это происходит LoRA была обучена для другой семейства моделей или другого варианта LTX. Вы увидите много строк lora key not loaded и, возможно, ошибки несоответствия формы.
Как исправить (рекомендуется)
- Убедитесь, что LoRA была обучена специально для LTX 2.3 с AI Toolkit (LoRA LTX 2.0 / 2.1 / 2.2 не взаимозаменяемы).
- Держите график "однонаправленным" для LoRA: загружайте адаптер только через вход
lora_pathрабочего процесса и позвольте LTX2Pipeline обработать объединение. Не накладывайте дополнительный универсальный загрузчик LoRA параллельно. - Если вы уже столкнулись с несоответствием и ComfyUI начинает выдавать несвязанные ошибки CUDA/OOM после этого, перезапустите процесс ComfyUI, чтобы полностью сбросить состояние GPU + модели, затем повторите попытку с совместимой LoRA.
(2) Результаты вывода не соответствуют предварительным просмотрам обучения
Почему это происходит Даже когда LoRA загружается, результаты могут все равно отклоняться, если ваш график ComfyUI не соответствует конвейеру предварительного просмотра обучения (различные значения по умолчанию, различные пути инъекции LoRA, различное планирование).
Как исправить (рекомендуется)
- Используйте этот рабочий процесс и вставьте вашу прямую ссылку
.safetensorsвlora_path. - Скопируйте значения выборки из вашей конфигурации обучения AI Toolkit (или RunComfy Тренер → LoRA Assets Config):
width,height,num_frames,sample_steps,guidance_scale,seed,frame_rate. - Держите "дополнительные стеки скорости" вне сравнения, если вы не обучали/выбирали с ними.
(3) Использование LoRAs значительно увеличивает время вывода
Почему это происходит LoRA может значительно замедлить LTX 2.3, когда путь LoRA вызывает дополнительную работу по патчингу/деквантованию или применяет веса в более медленном коде пути, чем сама базовая модель.
Как исправить (рекомендуется)
- Используйте путь RC LTX 2.3 (LTX2Pipeline) этого рабочего процесса и передайте ваш адаптер через
lora_path/lora_scale. В этом наборе LoRA объединяется один раз во время загрузки конвейера (в стиле AI Toolkit), так что стоимость выборки на шаг остается близкой к базовой модели. - Когда вы стремитесь к поведению, соответствующему предварительному просмотру, избегайте наложения нескольких загрузчиков LoRA или смешивания путей загрузчика. Держите его до одного
lora_path+ одногоlora_scale, пока базовый уровень не будет соответствовать.
(4) Ошибки OOM на больших разрешениях или длинных видео
Почему это происходит LTX 2.3 — это модель с 22 миллиардами параметров, и генерация видео требует много памяти VRAM. Высокие разрешения или множество кадров могут превышать память GPU, особенно с накладными расходами LoRA.
Как исправить (рекомендуется)
- Используйте машину 2X Large (80 GB VRAM) или больше. Этот рабочий процесс несовместим с машинами Medium, Large или X Large.
- Уменьшите разрешение или количество кадров, если вам нужно быстро итеративно работать, затем увеличьте для финальных рендеров.
- Включите тайлинг VAE, если доступен — это может сэкономить ~3 GB VRAM с минимальной потерей качества.
Запустите LTX 2.3 LoRA ComfyUI Inference сейчас
Откройте рабочий процесс, установите lora_path, и нажмите Queue/Run, чтобы получить результаты LTX 2.3 LoRA, которые остаются близкими к вашим предварительным просмотрам обучения AI Toolkit.




