Платформа WaveSpeedAI представила интеграцию с новой моделью Google Veo 3.1 — одной из самых продвинутых ИИ-моделей для генерации видео (мы уже писали про скорый релиз). Теперь пользователи могут создавать ролики из текста или изображения в нативном 1080p и с контекстно-синхронизированным звуком.
Модель получила обновлённый базовый движок, который делает движения более «живыми» и добавляет кинематографичные переходы. Алгоритм R2V (Render-to-Video) улучшает консистентность персонажей и объектов — теперь герой не «меняет лицо» или одежду между кадрами. Подробности в материале Postium.
Читайте также: Мобильные приложения для ИИ-генерации видео
Что умеет нейросеть Veo 3.1 от Google и как ей пользоваться
WaveSpeedAI — один из первых публичных сервисов, где Veo 3.1 доступна без ограничений API, в веб-интерфейсе и без необходимости установки моделей локально.
Возможности Veo 3.1:
- Нативное 1080p и 24 кадра/с. Видео готово к публикации без апскейла.
- Контекст-aware аудио. Модель автоматически подбирает саундтрек и эффекты под действие на экране.
- Поддержка портретного и альбомного форматов. Удобно для TikTok, Reels и YouTube Shorts.
- Функция «Image-to-Video». Достаточно одной картинки — Veo анимирует сцену, добавив движение камеры и объём.
- Режим Fast. Генерация на 20–30% быстрее при чуть меньших вычислительных затратах.
- Повторяемость. Можно зафиксировать seed, чтобы получить одинаковый результат при разных рендерах.
Промт для Veo 3.1:
Two person street interview in New York City. Sample Dialogue: Host: "Did you hear the news?" Person: "Yes! Veo 3.1 is now available on WaveSpeedAI. If you want to see it, go check their website."
Результат:
Ещё один пример промта для Veo 3.1:
Context: A Panda named Bamboo and a Red Fox named Tweed host a casual, witty podcast called "Quantum Quibbles." Task: Write the absolute shortest, most punchy opening exchange for an episode on quantum entanglement. Focus only on quick introductions and the topic title. Panda (Bamboo): "Welcome to Quantum Quibbles! I'm Bamboo." Red Fox (Tweed): "And I'm Tweed!" Panda (Bamboo): "Today: Quantum Entanglement!" Red Fox (Tweed): "Let's dive in."
Результат:
Кроме того, система стала лучше понимать глубину сцены и работу камеры: поддерживаются эффекты pan, tilt, zoom и dolly, что позволяет имитировать реальные движения объектива.
На сайте WaveSpeedAI доступны четыре режима работы:
- Text-to-Video: создание видео по описанию;
- Image-to-Video: анимация изображения;
- Fast Text-to-Video / Image-to-Video: ускоренные версии для черновых итераций.
Стоимость запуска видео на платформе — от $3,2 за стандартную генерацию. Интерфейс позволяет выбирать длину ролика, ориентацию кадра и интенсивность деталей. Кроме того, появилась возможность испытать Veo 3.1 и на платформах типа Flux AI.
Модель Veo — флагманская разработка Google DeepMind в сфере ИИ-видео. Первая версия была представлена весной 2024 года, но ограничивалась короткими клипами и беззвучным выводом. В версии 3.0 Google добавил 1080p и вертикальные форматы, а 3.1 стала первым релизом с синхронным звуком и улучшенной пластикой движения.
По данным отраслевых аналитиков, Veo 3.1 способна генерировать клипы длиной до 60 секунд с сохранением логики движения и световых эффектов, что делает её одним из конкурентов Sora 2.
Ранее Google обновил главную страницу AI Studio.




