Два года назад, когда OpenAI показала первые ролики Sora, индустрия видеопродакшна разделилась на два лагеря. Одни говорили: «Всё, через год нас заменят нейросети». Другие крутили пальцем у виска. Истина, как обычно, оказалась посередине — но ближе к тем, кто не паниковал.
Мы в Savage Movie работаем с AI-генерацией видео с момента, когда это стало технически возможно. Снимаем и монтируем руками, генерируем нейросетями, а чаще всего — комбинируем. В этом обзоре расскажу, что реально умеют три главных инструмента прямо сейчас и как мы их используем в коммерческих проектах.
Sora 2: амбициозно, но с оговорками
OpenAI выпустила Sora 2 в конце сентября 2025 года. Модель действительно впечатляет: физика объектов стала заметно правдоподобнее, появился встроенный звук — диалоги, звуковые эффекты, фоновые шумы генерируются вместе с видео. Есть функция «персонажей» — загружаешь своё фото и видео, и модель вставляет тебя в любую сцену.
Разрешение — до Full HD 1080p, длительность — до 20 секунд. Для социальных сетей этого достаточно. Для серьёзного продакшна — пока маловато.
Что хорошо работает: абстрактные визуальные концепты, атмосферные видео без крупных планов лиц, фоновые ролики для презентаций, мудборды и превизуализация. Мы часто используем Sora на этапе питчинга — вместо того чтобы описывать клиенту идею словами, показываем сгенерированный набросок будущего ролика. Это экономит часы переговоров.
Что пока не работает: сложные сцены с несколькими людьми, руки и пальцы крупным планом, любые кадры, где зритель должен поверить, что это снято на камеру. Текст в кадре — отдельная боль: буквы плывут, превращаются в абракадабру.
Доступ — через подписку ChatGPT Plus или Pro. Для коммерческого использования генерации свободны, но нужно учитывать водяные знаки и метаданные C2PA.
Runway Gen-4.5: рабочая лошадка для продакшна
Runway для нашей студии — основной рабочий инструмент AI-генерации. И вот почему: Gen-4.5, вышедший в декабре 2025 года, — это не просто генератор видео, а целая экосистема.
Главное преимущество — консистентность персонажей. Загружаешь референсное изображение героя, и модель сохраняет его внешность, одежду, стиль в разных ракурсах и сценах. Для рекламы это критически важно: бренд-персонаж должен выглядеть одинаково в каждом кадре.
Отдельно стоит упомянуть Aleph — встроенный редактор, который позволяет менять освещение, добавлять объекты, убирать лишнее прямо в сгенерированном видео. По сути, это Photoshop для видео, только вместо кисти — текстовый промпт. Написал «добавь дождь» — и дождь появляется с правильными отражениями и динамикой.
Act-Two превращает обычное видео со смартфона в motion capture: записываешь себя на телефон, и AI переносит мимику и движения на любого персонажа. Раньше для этого нужна была студия с десятком камер.
Цены: от $12/месяц за базовый план (625 кредитов ≈ 25 секунд Gen-4.5) до $76/месяц за безлимитный доступ. Для регулярной работы нужен минимум Pro за $28/месяц.
Kling 3.0: тёмная лошадка из Китая
Kling от Kuaishou — инструмент, который многие недооценивают. А зря. Версия 3.0, выпущенная в феврале 2026 года, первой в индустрии предложила нативное 4K при 60fps. Не апскейл, не интерполяцию — честные 3840×2160 пикселей.
Для продакшн-студии это значит одно: сгенерированный фрагмент можно вставить в финальный монтаж рядом с материалом, снятым на кинокамеру, и зритель не заметит перехода. Мы проверяли — работает, если правильно подобрать цветокоррекцию.
Физика в Kling 3.0 — одна из лучших на рынке. Ткань реалистично ложится, жидкости ведут себя правдоподобно, частицы (дым, пыль, снег) выглядят убедительно. Нативный звук тоже присутствует, хотя пока уступает Sora 2.
Важная фишка — расширение видео до 3 минут. У Sora потолок 20 секунд, у Runway — 10. Три минуты — это уже полноценный короткий ролик.
Минусы: интерфейс менее отполирован, чем у Runway. Серверы бывают перегружены — генерация может занять 10-15 минут. И самое важное для российского рынка — Kling работает, но иногда возникают сложности с оплатой и доступом, которые приходится решать через сторонние сервисы.
Так что же выбрать?
Вот как мы распределяем инструменты AI-генерации видео в реальных проектах:
Для превизуализации и питчинга — Sora 2. Быстро, атмосферно, клиент сразу понимает настроение будущего ролика.
Для коммерческих вставок в видео — Runway Gen-4.5. Консистентность персонажей, редактирование через Aleph, интеграция в рабочий процесс.
Для финального качества без съёмки — Kling 3.0. Когда нужен результат, неотличимый от камеры.
Для большинства проектов — комбинация всех трёх + живая съёмка. AI-генерация видео в 2026 году — это мощный инструмент, но не замена продакшну. Это скорее как фотошоп в фотографии: никто не перестал снимать на камеру, но все научились дорабатывать кадры.
Главный вопрос: заменят ли нейросети видеопродакшн?
Короткий ответ — нет. Длинный — не в ближайшие несколько лет, и вот почему.
AI отлично справляется с генерацией отдельных кадров и коротких фрагментов. Но полноценный рекламный ролик — это не набор красивых кадров. Это история, ритм, эмоция, точное попадание в бренд. За этим стоят люди: режиссёр, оператор, продюсер, монтажёр.
Что AI реально изменил — так это скорость и стоимость определённых этапов. Мудборды, которые раньше делались неделю, теперь готовы за час. Превизуализация, для которой нужна была отдельная команда, делается одним человеком. Простой контент для соцсетей можно генерировать потоком.
Мы в Savage Movie интегрировали AI-генерацию в свой процесс как один из инструментов — наряду с камерами, светом и монтажным софтом. И именно это сочетание даёт результат, который невозможно получить только нейросетями или только съёмкой.
Хотите обсудить, как AI-генерация видео может работать для вашего проекта? Отправьте заявку — разберём задачу и предложим оптимальный формат: съёмка, AI или гибрид.

