LTX Studio анонсировала LTX-2.3 — новую версию видеомодели, которая уже работает внутри сервиса. Параллельно модель выпустили как open-source и через API.
Обновление уже доступно: LTX-2.3 используется в Studio, доступна через API и может запускаться локально. Добавили генерацию вертикального видео 1080×1920, длину до 20 секунд, поддержку до 4K и 50 fps. Детали в материале Postium.
Читайте также: 5 приложений в которых можно генерировать видео
Что нового в LTX-2.3
LTX-2.3 — diffusion transformer-модель, которая генерирует видео и синхронизированный звук за один проход. Поддерживает text-to-video, image-to-video и audio-to-video, а также вертикальное видео без кропа.
В обновлении изменили базовую архитектуру. Пересобрали latent space через новый VAE — это улучшило сохранение текстур, волос, мелких деталей и краёв. Увеличили текстовый коннектор: модель точнее обрабатывает сложные промпты с несколькими объектами, движением и стилем.
— Отдельно переработали image-to-video: меньше «залипаний» и псевдодвижения, больше реальной динамики в сцене. Обновили аудио — добавили новый вокодер и очистили датасет, чтобы снизить шумы и провалы.
— Видео стало стабильнее: сцены реже «разваливаются», движение выглядит естественнее, а не как набор переходов. Промпты отрабатываются точнее — особенно сложные, с несколькими объектами и взаимодействием.
— Появилась нативная генерация вертикального видео 1080×1920, обученная на соответствующих данных, а не полученная обрезкой горизонтального кадра.
— Модель генерирует до 20 секунд видео, поддерживает до 4K и 50 fps и предлагает два режима: быстрый для итераций и более точный для финального результата.
Как пользоваться
Зайдите в LTX Studio, откройте playground, выберите режим pro или fast и задайте промпт — модель уже встроена и доступна при генерации видео.
Шаг 1. Заходим на сайт LTX Studio и переходим в раздел Playground. Выбираем способ генерации:
- Text to Video — создаёт видео по текстовому описанию.
- Image to Video — превращает загруженное изображение в анимированный ролик.
- Audio to Video — генерирует видео на основе аудио с синхронизацией звука и сцены.
Шаг 2. Вводим промт. В поле Prompt подробно описываем сцену: кто, где, что делает, настроение, освещение, стиль. В LTX-2.3 по-прежнему работают общие принципы промтов для генерации видео, но модель лучше понимает сложные сцены с несколькими объектами и взаимодействиями.
Шаг 3. Настраиваем параметры генерации. Под полем промта выбираем нужные параметры:
- Model — выбираем LTX-2.3 Fast или LTX-2.3 Pro. Fast быстрее и подходит для итераций, Proмедленнее, но даёт более точную генерацию, лучшее качество и стабильное движение.
- Duration — длина ролика (до 20 секунд).
- Resolution — качество видео (вплоть до 4K, включая вертикальный формат 1080×1920).
- FPS — частота кадров (например, 25 или 50).
- Audio — можно включить, чтобы модель сразу сгенерировала синхронизированный звук или речь.
Шаг 4. Генерируем видео. Нажимаем Generate video — начинается рендеринг. В режиме Fast результат появляется быстрее и подходит для итераций, Pro — дольше, но даёт более стабильную картинку, точную работу с движением и лучшее соответствие промпту
Для разработчиков доступен API с двумя режимами: fast и pro. Также можно скачать веса и развернуть модель локально или через инструменты вроде ComfyUI.
Почему это важно? Ключевое — открытые веса. Это снижает барьер входа: модель можно использовать вне экосистемы LTX, в собственных пайплайнах и продуктах. Речь уже не только о сервисе, но и об инфраструктурном инструменте.
LTX-2.3 — развитие модели LTX-2. В новой версии обновили четыре ключевых блока: детализацию через VAE, понимание текста, вертикальное видео и аудио.
Итог: LTX Studio перешла на LTX-2.3 — модель стала точнее, стабильнее и доступна не только внутри сервиса, но и как открытая технология.





