Telegram Web
Мудборды в MJ

Обучил персонализированный стиль в Midjourney, который вдохновился из изображений кадров фильмов, которые я собираю в Pinterest. По мере того, как я буду добавлять в эту «модель» все больше разнообразных изображений, «модель» начнет их ремикшировать между собой более сложными способами

Пока это больше похоже на то, что вы можете создать свой собственный sref. А sref в midjourney это то, что влияет на цвет, композицию, общую тему, атмосферу и качество генерации

Пока мудборды не поддерживают обучение на персонажах, пробовал, не получается.

Мой любимый способ визуального исследования и поиска вдохновения — это сессия генераций изображений в MJ. Когда на входе абстрактный промпт, теперь уже с добавлением новой персонализации стиля, параметр странности на 1-3 и параметр вариативности на 20, а на выходе неожиданные сюжетные кадры, которые возбуждают мозг на новые идеи. Когда из одного изображения может появиться целая история
Все, что создается — это ремикс существующих творений

Все фильмы, песни, даже изобретения — результат копирования, переосмысления и соединения между собой. Возможно, оригинальность — это просто умение красиво переписать историю

Я вот, когда плотно занимался музыкой, создавал инструменталы с помощью семплирования — это когда берется кусочек звука из старого трека, растягивается, питчится и собирается новое звучание. В кино в целом то же самое происходит. То есть сейчас творчество, по сути, — это заимствование и семплирование

Советую посмотреть это видео, которое подробно рассказывает об этом
Media is too big
VIEW IN TELEGRAM
Это ах-рен-ный пример того, как ИИ становится соавтором, а не заменой человеческого творчества

На этапе препродакшена Джек Бэннон и Гибсон Хазард использовали ИИ для визуализации рекламны Nike с Трэвисом Скоттом

Было сгенерировано более 5000 изображений в MidJourney для раскадровки и поиска визуальной подачи. А дальше команда классического продакшена создала каждую сцену, в том числе съемки на зеленке и VFX

Я уже много говорил о том, что ИИ как инструмент вдохновения может подвинуть классические Pinterest, Behance и подобные площадки. То есть сессии генераций в нейросетях — это крутой инструмент для творческих поисков

Абсолютно точно убеждён, что генеративный ИИ существует не для того, чтобы заменить человеческое творчество. Он даёт творческим конкурентное преимущество
«Только для волшебников»

Так подписал свой пост Канье Уэст, с поиском специалистов в команду по работе с ИИ (пост, который потом удалил)

Канье вообще одним из первых начал использовать новые креативные технологии в своих клипах. Сначала, 11 месяцев назад, вышел клип на трек Vultures, затем 6 месяцев назад — клип на трек Gimme A Second 2, а месяц назад его дочери выпустили клип Bomb

А буквально 10 дней назад он показал трейлер фильма под названием Vultures: The Movie, созданного в ретро-эстетике, с помощью нейросетей

Вообще, человек, который заменил свои зубы на титановые протезы и постоянно придумывает нестандартные и креативные проекты, точно понимает, что генеративные технологии — это кроличья нора бесконечного креативного контента
Please open Telegram to view this post
VIEW IN TELEGRAM
Made with Google VideoFX/Veo 2

Собрал, на мой взгляд, хорошие работы от создателей с ранним доступом (Passage 12 от The Dor Brothers — мой фаворит, с точки зрения повествования)

Когда речь заходит о реалистичной физике, освещении, весе, движении, видно, насколько они опережают другие видеогенераторы

Тот же Kling, конечно, далеко не отстает и остается лучшей видеомоделью для меня. А вышедший на днях Luma Ray2 (именно image-to-video) дает очень близкие результаты к VEO 2

Google хитро придумали: вместо классического image-to-video они сделали text-to-image-to-video. То есть с помощью встроенной в процесс Imagen 3 сначала генерируется изображение, которое можно предварительно увидеть, а потом из него создается видео

Из примеров работ видно, что последовательность довольно хорошая (ну если прям в мелкие детали не вдаваться). Есть еще одна хитрость, касающаяся контроля результата: с помощью их же инструмента Whisk можно загрузить референс объекта (персонажа), сцены и стиля, контролируемо сгенерировать изображение, взять получившийся промпт и использовать его в VEO 2 в процессе генерации text-to-image-to-video. В итоге изображение получается практически один в один

Пока версия на сайте недоступна для всех (можно только whitelist заполнить), они добавили лайтовую версию VEO 2 в приложение YouTube. Лайтовую — потому что качество ниже, только вертикальный формат и с вотермаркой

А вообще, пора бы уже понять, что дело не только в инструментах, качество которых уже достаточно для многих задумок, но и в человеке, который ими пользуется

Credit: The Dor Brothers, Dave Clark, Ruairi Robinson, Jason Zada, Daniel Barak, Kavan the kid, László Gaál, Henry Daubrez
This media is not supported in your browser
VIEW IN TELEGRAM
Так хорошо, что не верится

Ну, во-первых, это крутая сцена из второго сезона сериала «Разделение», которую, кстати, как говорят создатели сериала, снимали пять месяцев (именно эту сцену — в оригинале она длиннее, около минуты он там бегает) и собирали из 10 разных частей, потому что там сложные приемы съемки

Но мысль о другом. Автор примеров на видео дообучил опенсорс модель для генерации видео Hunyuan Video на актёре Киану Ривзе и с помощью video-to-video заменил оригинального актёра из сцены сериала на Киану.
Большинство людей не заметят мелкие проблемы с волосами при резких поворотах головы, но это выглядит очень бодро, особенно когда ИИ ловит тонкие движения в выражении лица актёра

Сейчас до удивления легко создавать видео, в которых актёры делают или говорят то, чего на самом деле никогда не делали, или взять отрывок из фильма и заменить лицо актёра на чьё-то другое

Дообучение видеомодели называется LoRA — с его помощью можно обучать собственные стили, персонажей, движения и эффекты. И для видеомодели Hunyuan таких LoRA становится всё больше (в основном их выкладывают на Civitai). Это похоже на то, как когда-то появился Stable Diffusion 1.5, и начали появляться обученные модели разных стилей для создания изображений. Сейчас то же самое происходит с китайской видеомоделью Hunyuan

Если у вас мощный комп, то саму нейросеть можно развернуть у себя с помощью Pinokio или потестить здесь.
Кто хочет разобраться — вот инструкция, как обучить свою LoRA для Hunyuan в сервисе Replicate
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Всегда круто, когда режиссер имеет свой стиль – смотришь и сразу понимаешь, кто снял. В ИИ-кино уже появляются такие авторы, у которых есть свой почерк, чьи работы я всегда смотрю с удовольствием

Один из лучших примеров – The Dor Brothers. Они выпустили 2 серии своего шоу «Passage 12», которое создают с помощью нейросети VEO2. Это смесь кинематографичности, атмосферы и узнаваемого сторителлинга. И концепция, кстати похожа на фильм «Микки 17», который скоро должен выйти

Феномен этих ребят из Берлина в том, что они завирусились благодаря провокационному видео с участием известных лиц и глав государств. Чем и обратили на себя внимание. И за несколько месяцев на YouTube и X они собрали 75 млн просмотров. И это длинные (1–5 минут) горизонтальные видео, полностью созданные нейросетями
Media is too big
VIEW IN TELEGRAM
Киноиндустрия признала ИИ

На стриминге Amazon Prime идет сериал «Дом Давида», и в нем из 850 VFX-сцен первого сезона 73 сделаны нейросетью

«Это новый набор кистей, которые, оказавшись в руках художника, позволяют делать вещи, которые раньше были невозможны»

Если еще полтора года назад для кинематографистов тема ИИ была табу, то сейчас почти каждая киностудия внедряет генеративные технологии на разных этапах процесса

Директор Disney недавно тоже признался, что они уже используют эту технологию — «ИИ может быть самой мощной технологией, которую видела наша компания»

Самая важная, на мой взгляд, мысль или сигнал здесь в том, что это — легитимация ИИ как инструмента творчества и производства. Инструмента, который доступен всем и применим в домашних условиях
2025/06/27 00:34:23
Back to Top
HTML Embed Code: