Компания Lightricks, известная по приложениям Facetune, Videoleap и Motionleap, выпустила новое поколение своей видеомодели — LTX-2.
Она создаёт ролики из текста и изображений в нативном 4K, 1440p и 1080p (720p добавят позже) и сразу рендерит финальный результат — без апскейла, пост-обработки и стороннего монтажа. Максимальная длина видео — до 10 секунд непрерывной генерации. Postium собрал ключевые детали о новой модели Lightricks и показывает, как ей пользоваться бесплатно.
Читайте также: 5 лучших нейросетей для генерации видео
Что умеет нейросеть LTX-2 и как работает
В LTX-2 улучшена синхронизация речи и движений губ, появилась возможность добавлять фоновый звук и атмосферу прямо при генерации сцены.
Модель теперь работает по принципу «всё сразу»: видео, речь и музыка создаются синхронно, без последующей сборки. Это делает ролики более естественными и избавляет от проблем с рассинхронизацией, которые часто встречаются в других ИИ-видеогенераторах.
В сервисе появились три режима работы:
- Fast — быстрый предпросмотр и тест идей;
- Pro — баланс качества и скорости, рассчитан на продакшн;
- Ultra (в разработке) — обещает 50 fps и полное 4K-видео.
LTX-2 также поддерживает API и SDK — модель можно встроить в продакшн-пайплайн, в том числе через ComfyUI, Replicate и Fal. Это важно для разработчиков и студий, которые хотят интегрировать ИИ-видео в собственные продукты.
Доступность: LTX-2 уже доступна в LTX Studio, версия Ultra и публичный API выйдут к концу 2025 года.
Цена и сравнение с конкурентами. LTX предлагает одну из самых доступных подписок на рынке:
- $15 в месяц за базовый тариф;
- $35 в месяц — стандартный план с увеличенным числом генераций;
- $125 в месяц — профессиональный уровень с приоритетным рендером и расширенными лимитами.
Для сравнения, аналоги вроде Pika, Runway и Synthesia стоят от $30–40 в месяц, а генерация 4K-видео у них доступна только на старших тарифах.
Статья в тему: Как купить подписку на Kling AI в России
Как пользоваться нейросетью LTX-2 бесплатно — пошаговая инструкция
На старте пользователи получают 100 кредитов для тестирования модели. Рендеринг занимает считанные минуты: в режиме Fast — до 30 секунд, в Pro — чуть дольше, но с максимальным качеством и стабильностью.
1. Заходим на сайт и авторизумеся с помощью Google-аккаунта. Выбираем способ генерации. На панели слева в разделе API Playground доступны два варианта:
- Text to Video — создаёт видео по текстовому описанию.
- Image to Video — превращает загруженное изображение в анимированный ролик.
Для примера разберём текстовый вариант.
2. Вводим промт. В поле Prompt описываем сцену максимально подробно — кто, где, что делает, настроение, освещение, стиль. В LTX можно использовать общие принципы промтов для генерации видео.
3. Настраиваем параметры генерации. Под полем промта выбираем нужные параметры:
- Model — Fast (быстрее, ниже детализация) или Pro (баланс скорости и качества).
- Duration — длина ролика (до 10 секунд).
- Resolution — качество видео (1080p, 1440p или 4K).
- FPS — частота кадров (обычно 25 или 50).
- Audio — включаем, если хотим, чтобы модель добавила фоновый звук или речь прямо при рендере.
4. Генерируем видео. Нажимаем Generate video — и система начинает рендеринг. В режиме Fast видео появляется через 10–15 секунд, Pro — чуть дольше, но с заметно лучшей синхронизацией и деталями.
После завершения генерации можно скачать результат кнопкой Download. Я использовал промт:
cozy coffee shop interior, barista pouring espresso into a cup, visible steam, warm morning light, cinematic shot
Результат:
LTX-2 приходит на смену предыдущей версии LTXV, которая умела генерировать видео до 1080p. Новый релиз выводит платформу в профессиональный сегмент, делая упор на качество и точную синхронизацию.
В Lightricks отмечают, что сейчас команда работает над расширением длины роликов и над функцией динамических сцен, где камера может двигаться, менять фокус и освещение в реальном времени.
Итог: На рынке появился ещё один ИИ-генератор видео, который делает акцент на доступности и скорости, сохраняя профессиональное качество. А как мы писали ранее — синхронный звук и видео становятся новым минимумом для видеомоделей.
Ранее Suno выпустила бесплатную ИИ-модель «v4.5-all» для генерации музыки и вокала.






