Telegram Web
466 дней назад я пробовал управлять композицией кадра с помощью ChatGPT, детально прописывая, что мне нужно — это изображение слева. Сегодня я сделал то же самое, с той же примитивной картинкой с инструкциями — и это получилось с первого раза, в отличие от прошлой попытки. Это изображение справа

Ещё можно детально описывать локацию, одежду, внешность персонажей — и результат получается с точностью до 95%

Чтобы быть соавтором и управлять деталями внутри кадра, нужно терпение и желание продумывать всё до мельчайших деталей. Теперь, когда это можно делать на естественном языке, процесс становится ещё интереснее
«Использовать текущий кадр»

Нравится, как получаются длинные, непрерывные видео в Gen-4. Начиная с одного изображения и «гуляя в сознании нейросети», можно строить интересные сюжеты

Это делается с помощью опции «Use current frame» (не путать с «Extend» — его пока нет в Gen-4). В режиме «Use current frame» можно выбирать любой кадр из видео, то есть необязательно, чтобы это был именно последний

Дальше можно управлять происходящим с помощью промпта, тем более, что Gen-4 очень хорошо добавляет новые объекты в существующий кадр. Круто, что всё получается практически бесшовно и скорость движения камеры сохраняется, как в предыдущем отрезке (но и без монтажных склеек не обойтись)

Да, чем дольше видео, тем оно сильнее теряет в качестве, но, как вариант, можно вытягивать качество кадра лёгким апскейлом изображения. Но например, в видео, где все начинается с капли, апскейла между отрезками вообще нет
Please open Telegram to view this post
VIEW IN TELEGRAM
FBRC_IndustryReport_StudioEdition.pdf
23.2 MB
Количество ИИ-видеостудий растет

Это отчет FBRC исследует влияние ИИ на индустрию медиа и развлечений. Они поговорили с семью ИИ-студиями и вот основные выводы:

Истории остаются в центре внимания
— Несмотря на технические достижения, ключевым остаётся умение рассказывать истории
— ИИ помогает, но не заменяет традиционный процесс создания контента

Рост количества ИИ-студий
— 65 из 98 студий появились после 2022 года
— Большинство из них небольшие и самофинансируемые (70% имеют команды до 5 человек)

Размытость границы между ИИ-нативными и традиционными студиями
— Некоторые студии используют AI как вспомогательный инструмент, другие строят производство вокруг него

ИИ меняет процесс создания контента
— Генеративные ИИ-методы позволяют создавать контент без традиционной съёмки
— Новые методы производства снижают зависимость от физических съёмок

ИИ-студии сосредотачиваются на промежуточных технологиях
— Используют смесь open-source (ComfyUI) и закрытых моделей (Sora, Runway)
— Разрабатывают уникальные модели и датасеты для повышения конкурентоспособности

Изменение состава команд и востребованных навыков
— ИИ-продакшен требует как традиционных, так и технических навыков
— Компании привлекают узких специалистов (например, AI-художников, инженеров по ML, аниматоров)

Экономические модели всё ещё формируются
— ИИ снижает расходы на продакшен, делая среднебюджетные фильмы более рентабельными
— Некоторые студии ищут альтернативные модели монетизации за пределами Голливуда (например, контент для соцсетей)

Основной фокус остаётся на рассказе историй, а ИИ – это лишь инструмент для их реализации

Пора учиться рассказывать истории
This media is not supported in your browser
VIEW IN TELEGRAM
Как подготовиться к GEN 48 — конкурсу фильмов, созданных за 48 часов

Во-первых, зарегистрируйтесь заранее, конкурс будет 26-28 апреля. Всем участникам дают по 300 тыс. бесплатных кредитов. Даже если не будете участвовать, можете 2 дня генерить в GEN-4 что захотите

Вот их гайд по промптингу, который поможет понять, как модель понимает слова и как управлять генерациями

Изучите все работы победителей прошлых конкурсов.
Если коротко, то всегда выделялась идея и смысл, а не форма. Важно оставить у зрителя послевкусие

Подумайте о стиле заранее — например, создайте стилевой мудборд в Midjourney. Можно продумать арки персонажей и основные сюжетные повороты. Правила конкурса всегда были такими, что тема свободная, но есть 3 элемента, которые должны присутствовать в истории — их озвучат в момент старта

Ну, про базу киноязыка, наверное, не нужно расписывать — это априори важно знать, если хотите рассказывать истории с помощью нейросетей. Тут я могу дать часть лекции по основам кинопроизводства из нашего образовательного проекта АЙ ВИДЕО, с базой по типам кадров, движениям камеры и типам освещения

Если есть настрой поучаствовать — эта подготовка может дать преимущество
This media is not supported in your browser
VIEW IN TELEGRAM
Мысли про генерацию кадров для длинной истории в ChatGPT

Под длинной историей я имею в виду 80–100 ключевых кадров, которые затем пойдут на этап продакшн-моушен. А это значит, что по факту генерируется в несколько раз больше, с учётом корректировок и отбраковки

Я решил протестировать, насколько это вообще возможно (возможно, но есть нюансы). Если не принципиален узнаваемый «гпт-шный» стиль, то это очень удобный способ генерации ключевых кадров истории, но обязательно нужно делать цветкор всех изображений, потому что стиль в GPT априори теплый и иногда эта «теплота» скачет

Еще мне понравилось управлять всеми итерациями голосом, а не печатать, как-то по другому воспринимается рабочий процесс

Разбивайте историю на эпизоды и делайте их в разных диалогах — так лучше сохраняется контекст. Достаточно пары изображений, чтобы соблюсти стиль и консистентность персонажей в новом диалоге

Иногда я поражался, как чётко GPT меня понимает в плане мизансцены. А иногда — прям бесило, что он не может элементарно построить людей в шеренгу, чтобы они стояли плечом к плечу

Если внутри одного диалога вы генерируете кадры, а потом решаете вернуться к какому-нибудь раннему кадру и отредактировать его с помощью встроенной опции точечного редактирования, то с вероятностью 90% всё, что было сгенерировано после этого, стирается. Я так потерял диалог с прогрессом около 40 готовых кадров. Сами изображения сохраняются в «Библиотеке», но часть диалога пропадает

Сначала я достиг лимита внутри одного диалога. Потом — лимита генерации изображений в сутки, GPT дружелюбно предложил подождать 7 часов. Пришлось зайти в другой аккаунт и оплатить ещё одну подписку. Иногда он врубал свое любимое «политикой запрещено», что решалось, созданием нового диалога

Так как размер изображений в GPT 4:3, я закидывал их в редактор Midjourney и расширял до 16:9 и делать ретушь мелких деталей в редакторе удобней, чем в точечном редакторе Сhatgpt. При этом Midjourney накладывал на изображение свой слой рендера, что улучшало общую картинку в плане детализации

Это могла быть отличная история для конкурса GEN48, так как в ней есть 3 обязательных элемента по правилам конкурса. Но проект пока на пост-продакшне

А что касается применения этого метода генерации на постоянной основе, как основной конечный инструмент для статики, скорее нет, чем да, а нет, потому что возможности по стилю слишком мизерны и не стабильность генерации сильно осложняет творческий процесс
Это победители четвёртого выпуска Gen:48 — конкурса историй, созданных человеком с помощью нейросетей за 48 часов

Интересно, что статика в работе, занявшей первое место, была полностью сгенерирована в ChatGPT. Эмоционально сильная работа. Второе место (выбор аудитории) — конечно, неожиданная развязка всё порешала. В выборе жюри больше уклон в концептуальность, что не всем будет понятна

Посмотрел много работ. На мой взгляд, были интересные с технической точки зрения, но слабые по истории — в топ-10 они не попали. Делайте выводы сами

Здесь оригиналы, подгруженные с ютуба — можно посмотреть в ябраузере с переводом
2025/06/28 05:33:37
Back to Top
HTML Embed Code: