PixVerse представила модель C1 — ИИ-модель для кинопроизводства. Добавили управление сложными сценами: связный экшен, генерация видео из раскадровки и сохранение персонажей и окружения между шотами.
Модель генерирует видео до 15 секунд в 1080p и сразу добавляет звук. C1 уже доступна в веб-версии PixVerse и через API. Детали — в материале Postium.
Читайте также: 20 нейросетей для создания мультфильмов
Нейросеть PixVerse C1 — что умеет и как работает
C1 включает несколько ключевых блоков: движок для экшен-сцен, систему визуальных эффектов и генерацию видео по раскадровке.
В C1 переработана работа с движением и взаимодействием объектов: сцены с драками, быстрыми перемещениями и столкновениями должны сохранять геометрию и «вес» объектов от кадра к кадру без скачков и деформаций.
Отдельно заявлена поддержка сложных эффектов — частиц, освещения, жидкостей и атмосферных сцен. Их можно генерировать в одном процессе, без разрыва между «базовым видео» и постэффектами.
Ключевая функция — storyboard-to-video. Модель берёт статичную раскадровку и превращает её в непрерывную видеосцену. Разделение на шоты происходит автоматически по структуре промпта и работает в разных режимах: текст, изображения и сценарии с референсами.
Функция Reference-guided отвечает за консистентность: пользователь задаёт референсные изображения, и модель старается удерживать внешний вид персонажей и сцен между разными планами.
Как пользоваться
— Первый вариант. Загружаешь кадры раскадровки — несколько изображений подряд, каждое как отдельный шот. В том же поле добавляешь текст с описанием сцены: что происходит между кадрами, какое действие, какой темп.
C1 сама читает последовательность, разбивает её на шоты и собирает в один ролик. На выходе — цельная сцена, где кадры переходят друг в друга.
— Второй вариант. Открываешь вкладку «Reference» и загружаешь 1–7 изображений — это якоря для модели. Это могут быть персонажи, лицо, костюм, объект или окружение — всё, что должно повторяться в кадрах.
Дальше в промпте ссылаешься на них (например, @image1), чтобы модель понимала, кого или что нужно держать неизменным.
После этого задаёшь сцену как обычно — текстом или вместе с раскадровкой. Разница в том, что теперь модель не «придумывает заново», а тянет внешний вид из референсов через весь ролик.
Почему это важно? PixVerse уходит от сценария «сгенерировать красивый ролик по промпту» к прикладным задачам. В производстве важно не качество одного кадра, а управляемость всей сцены: чтобы персонажи выглядели одинаково, движение не ломалось, а монтаж не распадался на несвязанные куски.
C1 пытается закрыть именно это. Раскадровка, референсы и акцент на физике — попытка приблизить AI-видео к требованиям превизов, аниматиков и тестовых сцен.
C1 — первая модель PixVerse, позиционируемая именно для film production. До этого компания развивала универсальные генераторы: в линейке есть PixVerse V6 с упором на качество и следование промпту, а также R1 — real-time world model, запущенная в январе 2026 года.
Итог: C1 — попытка превратить ИИ-генератора отдельных клипов в инструмент, который удерживает сцену, персонажей и логику монтажа.







