Содержание
Что нового?
- Midjourney представила свою первую модель генерации видео, названную V1, которая способна преобразовывать статичное изображение в анимацию длиной до 20–21 секунды.
- Для короткого клипа модель создаёт четыре версии по 5 секунд, с возможностью продления по 4 секунды вплоть до максимума .
- В настоящий момент V1 доступна через бота в Discord и на сайте Midjourney.
Конкуренция на рынке
- Midjourney выходит на поле с такими игроками, как Runway Gen‑4, Adobe Firefly (видео‑бета), Google Veo 3 и OpenAI Sora.
- Среди отличий — стиль художника, характерный для Midjourney, вместо коммерческой строгости.
- Однако модель не интегрирует звук, что остаётся за пределами функции — звук придётся добавлять вручную.
Как работает Midjourney V1
- Автономный режим: модель сама генерирует движения.
- Ручной режим: пользователь задаёт направление анимации текстом.
- Можно регулировать интенсивность движения: “low motion” или “high motion”.
Для кого это полезно?
- Креаторы, художники, маркетологи — короткие анимации для соцсетей, презентаций, визуализации идей.
- Новички смогут легко добавить движение к изображениям — удобно для тестирования творческих концептов.
- Опытные пользователи ожидают глубокий контроль, чекпойнты на плавность, преемственность визуального стиля (как артефакты V6.1)
Технические детали, стоимость и ограничения
- Видео без звука: пока модель не поддерживает озвучку, поэтому аудио добавляется вручную через сторонние редакторы.
- Ресурсоёмкость: генерация одного видео занимает примерно в восемь раз больше GPU‑времени, чем изображение.
- Доступность: протестировать V1 можно уже сейчас — самый доступный вариант — базовый тариф за $10 в месяц, но он предполагает ограниченное число генераций.
- Для более интенсивного использования предусмотрены тарифы Pro ($60) и Mega ($120), где доступен режим Relax — он позволяет рендерить больше видео без привязки ко времени GPU.
- Midjourney анонсировала возможный пересмотр тарифной системы в течение ближайшего месяца, что может повлиять на доступность новых функций.
Стратегическая перспектива
- По словам CEO Дэвида Хольца, запуск Midjourney V1 — шаг к созданию “открытых миров в реальном времени”, также готовятся модели для 3D-рэндера.
- Это перспективы: от анимации одного кадра — к демо 3D‑сцен, игр, симуляции.
Юридический фон
- Выход модели совпал с иском Disney и Universal за якобы незаконное использование защищённого контента в обучении моделей Midjourney.
- Это может повлиять на доступ к моделям и коммерческую экспансию.
Что думают пользователи?
- Новички: радуются простой интеграции анимации без сложного монтажа… И решают попробовать, что же это за инструмент такой получился. О чем и будет рассказано в следующей статье «Midjourney V1 – тестируем новый видеосервис на практике».
- Продвинутые юзеры: ждут улучшенного контроля над длительностью, стилем, параметрами камеры — и надеются на появление звука, keyframes, 3D‑сцены.
Итог и прогноз
- Прорыв в функционале Midjourney: теперь платформа не просто для картинок, а для коротких креативных видео.
- В конкурентной борьбе V1 бьётся своими художественным стилем, возможностью ручного управления движением, но уступает в звуке и глубине редактора.
- Следующий шаг — 3D‑рендеринг и live‑симуляции. Это может создать новую нишу для креаторов.
- Риски: юридические споры могут ограничить использование в коммерции.
- Ожидания пользователей: удобство, скорость, стиль — теперь время увидеть что дальше, когда выйдут V2 и аудио-интеграция.
Заключение
Midjourney заявляет о себе не только как генератор изображений, но и как серьезный игрок в сфере AI‑видео. V1 — лишь начало. Следите за обновлениями: скоро может появиться звук, 3D‑анимация, и полное революционное средство для художников и контент-мейкеров.
Источники
- https://www.newsbytesapp.com/news/science/midjourney-launches-ai-video-generation-model-competes-with-runway-adobe/story
- https://blazetrends.com/midjourney-launches-v1-video-model-for-generating-videos-from-images/
- https://techcrunch.com/2025/06/18/midjourney-launches-its-first-ai-video-generation-model-v1/