Media is too big
VIEW IN TELEGRAM
Генеративное видео расширяется
Вот небольшой тест использования новой функции расширения видео в Runway на примере сцены из фильма «Начало» и с использованием референса изображения. А вообще еще можно генерировать без и с подсказкой
Само исходное видео и изображение референс имеет большое значение для согласованности расширенного видео.
Чем более новый и сложный у вас фон, тем сложнее расширенным деталям соответствовать исходным данным
Очевидно, что эта функция открывает широкие возможности для создания VFX-кадров. Это сверхмощным генератор визуальных эффектов.
Еще можно соединить несколько расширений вместе, чтобы создать кинематографические движения камеры из статичных кадров. Короче это бесконечные возможности для переформатирования контента
До этого момента такой функционал был только у давно мной забытой Pika (хотя они там вроде шевелятся в плане качества своей видеомодели), но это все была «мыльная картинка» + у них так же есть наоборот дорисовка деталей в видео (Адоби там что-то анонсировал подобное, но как всегда ничего еще не вышло) — это тоже по качеству не применимо для проектов. Большая вероятность, что и у Runway будет дорисовка внутри видео. Ведь если расширять теперь можно и еще с таким качеством то и дорисовка деталей тоже очень, очень близко
Как вы думаете, будут ли студии использовать эту технологию, чтобы взять старые фильмы в формате 4:3 и растянуть их до 16:9?
Вот небольшой тест использования новой функции расширения видео в Runway на примере сцены из фильма «Начало» и с использованием референса изображения. А вообще еще можно генерировать без и с подсказкой
Само исходное видео и изображение референс имеет большое значение для согласованности расширенного видео.
Чем более новый и сложный у вас фон, тем сложнее расширенным деталям соответствовать исходным данным
Очевидно, что эта функция открывает широкие возможности для создания VFX-кадров. Это сверхмощным генератор визуальных эффектов.
Еще можно соединить несколько расширений вместе, чтобы создать кинематографические движения камеры из статичных кадров. Короче это бесконечные возможности для переформатирования контента
До этого момента такой функционал был только у давно мной забытой Pika (хотя они там вроде шевелятся в плане качества своей видеомодели), но это все была «мыльная картинка» + у них так же есть наоборот дорисовка деталей в видео (Адоби там что-то анонсировал подобное, но как всегда ничего еще не вышло) — это тоже по качеству не применимо для проектов. Большая вероятность, что и у Runway будет дорисовка внутри видео. Ведь если расширять теперь можно и еще с таким качеством то и дорисовка деталей тоже очень, очень близко
Как вы думаете, будут ли студии использовать эту технологию, чтобы взять старые фильмы в формате 4:3 и растянуть их до 16:9?
Видео, из-за которого меня забанили в Midjourney
У них очень жёсткие правила по работе с новым редактором, а я генерировал там довольно жёсткие кадры, точнее — ретекстурировал. Потому что нам нужна была жесть, дичь и безумие
Это видео вышло на канале Амо Блог, в рекламной интеграции AmoCRM. Команда агентства «Джони и Клайд» нарисовала иллюстрацию, а я превратил эту иллюстрацию в реалистичного человека (референсом был мем с вечно улыбающимся человеком, который едет в машине и у которого всегда хорошее настроение). А дальше с помощью креативного пересвета в Krea я их ужесточил, чтобы добавить больше дичи на фон. Ну а моушен с липсинком делал в Kling
У меня была оплачена годовая подписка, которая открывала доступ к этому чудо-редактору в Midjourney, но после того как я не смог докупить быстрые часы и написал в поддержку, я привлёк к себе внимание. Они посмотрели мои «страшные генерации» и забанили за нарушения правил сообщества. Я, конечно же, написал апелляцию, но, как показывает практика, шансы на разблокировку минимальны
Короче, новый редактор в Midjourney — это очень мощный и крутой инструмент с возможностью редактирования загруженных изображений и ретекстурирования, и он доступен только тем, у кого годовой тарифный план на официальном сайте
Но сейчас уже есть возможность пользоваться этим редактором в боте Syntx — тут моя реферальная ссылка если что. Советую попробовать поиграться
Такие дела
У них очень жёсткие правила по работе с новым редактором, а я генерировал там довольно жёсткие кадры, точнее — ретекстурировал. Потому что нам нужна была жесть, дичь и безумие
Это видео вышло на канале Амо Блог, в рекламной интеграции AmoCRM. Команда агентства «Джони и Клайд» нарисовала иллюстрацию, а я превратил эту иллюстрацию в реалистичного человека (референсом был мем с вечно улыбающимся человеком, который едет в машине и у которого всегда хорошее настроение). А дальше с помощью креативного пересвета в Krea я их ужесточил, чтобы добавить больше дичи на фон. Ну а моушен с липсинком делал в Kling
У меня была оплачена годовая подписка, которая открывала доступ к этому чудо-редактору в Midjourney, но после того как я не смог докупить быстрые часы и написал в поддержку, я привлёк к себе внимание. Они посмотрели мои «страшные генерации» и забанили за нарушения правил сообщества. Я, конечно же, написал апелляцию, но, как показывает практика, шансы на разблокировку минимальны
Короче, новый редактор в Midjourney — это очень мощный и крутой инструмент с возможностью редактирования загруженных изображений и ретекстурирования, и он доступен только тем, у кого годовой тарифный план на официальном сайте
Но сейчас уже есть возможность пользоваться этим редактором в боте Syntx — тут моя реферальная ссылка если что. Советую попробовать поиграться
Такие дела
YouTube
КАК НАЙТИ нормальную работу в 2024?
Всем нам хоть раз в жизни приходилось искать работу. Кто-то решил уйти из бизнеса, кто-то — от работодателя. Может быть миллион причин. И знаешь что? Поиск работы — это классно! Ты можешь поменять свою жизнь, вырасти в доходе, определить свое будущее на ближайшие…
Sora ис хир!
Посмотрел первый обзор интерфейса видеогенератора Sora, который доверили техноблогеру Маркесу Браунли и вот что думаю:
Что никакого вау лично для меня тут нет. Hailuo Minimax или недавно вышедший опенсорс Hunyuan Video (сделаю пост о нем позже) уже все это умеют. Что жесткая модерация всего и вся не даст развернуться творческой мысли. Будем посмотреть
Из прикольного — функция сториборда, которая позволяет комбинировать несколько подсказок и несколько изображений для создания длинных видео с плавными переходами.
За 20$ в максимальном качестве 720p и разрешении 1:1 будет где-то 30 видео по 5 секунд
За 200$ в максимальном качестве 1080p долгий безлимит или где-то 50 быстрых видео по 5 секунд в разрешении 1:1
В тарифе за $20 нельзя генерировать из изображений, где есть люди
Выйдет уже прям вот вот — https://sora.com/
Посмотрел первый обзор интерфейса видеогенератора Sora, который доверили техноблогеру Маркесу Браунли и вот что думаю:
Что никакого вау лично для меня тут нет. Hailuo Minimax или недавно вышедший опенсорс Hunyuan Video (сделаю пост о нем позже) уже все это умеют. Что жесткая модерация всего и вся не даст развернуться творческой мысли. Будем посмотреть
Из прикольного — функция сториборда, которая позволяет комбинировать несколько подсказок и несколько изображений для создания длинных видео с плавными переходами.
За 20$ в максимальном качестве 720p и разрешении 1:1 будет где-то 30 видео по 5 секунд
За 200$ в максимальном качестве 1080p долгий безлимит или где-то 50 быстрых видео по 5 секунд в разрешении 1:1
В тарифе за $20 нельзя генерировать из изображений, где есть люди
Выйдет уже прям вот вот — https://sora.com/
Мудборды в MJ
Обучил персонализированный стиль в Midjourney, который вдохновился из изображений кадров фильмов, которые я собираю в Pinterest. По мере того, как я буду добавлять в эту «модель» все больше разнообразных изображений, «модель» начнет их ремикшировать между собой более сложными способами
Пока это больше похоже на то, что вы можете создать свой собственный sref. А sref в midjourney это то, что влияет на цвет, композицию, общую тему, атмосферу и качество генерации
Пока мудборды не поддерживают обучение на персонажах, пробовал, не получается.
Мой любимый способ визуального исследования и поиска вдохновения — это сессия генераций изображений в MJ. Когда на входе абстрактный промпт, теперь уже с добавлением новой персонализации стиля, параметр странности на 1-3 и параметр вариативности на 20, а на выходе неожиданные сюжетные кадры, которые возбуждают мозг на новые идеи. Когда из одного изображения может появиться целая история
Обучил персонализированный стиль в Midjourney, который вдохновился из изображений кадров фильмов, которые я собираю в Pinterest. По мере того, как я буду добавлять в эту «модель» все больше разнообразных изображений, «модель» начнет их ремикшировать между собой более сложными способами
Пока это больше похоже на то, что вы можете создать свой собственный sref. А sref в midjourney это то, что влияет на цвет, композицию, общую тему, атмосферу и качество генерации
Пока мудборды не поддерживают обучение на персонажах, пробовал, не получается.
Мой любимый способ визуального исследования и поиска вдохновения — это сессия генераций изображений в MJ. Когда на входе абстрактный промпт, теперь уже с добавлением новой персонализации стиля, параметр странности на 1-3 и параметр вариативности на 20, а на выходе неожиданные сюжетные кадры, которые возбуждают мозг на новые идеи. Когда из одного изображения может появиться целая история
Все, что создается — это ремикс существующих творений
Все фильмы, песни, даже изобретения — результат копирования, переосмысления и соединения между собой. Возможно, оригинальность — это просто умение красиво переписать историю
Я вот, когда плотно занимался музыкой, создавал инструменталы с помощью семплирования — это когда берется кусочек звука из старого трека, растягивается, питчится и собирается новое звучание. В кино в целом то же самое происходит. То есть сейчас творчество, по сути, — это заимствование и семплирование
Советую посмотреть это видео, которое подробно рассказывает об этом
Все фильмы, песни, даже изобретения — результат копирования, переосмысления и соединения между собой. Возможно, оригинальность — это просто умение красиво переписать историю
Я вот, когда плотно занимался музыкой, создавал инструменталы с помощью семплирования — это когда берется кусочек звука из старого трека, растягивается, питчится и собирается новое звучание. В кино в целом то же самое происходит. То есть сейчас творчество, по сути, — это заимствование и семплирование
Советую посмотреть это видео, которое подробно рассказывает об этом
YouTube
Всё - ремикс: идеи, творчество, прогресс, копирайт и мемы
#копирайт #прогресс #творчество
Это склейка из четырех частей проекта Everything is a remix Кирби Фергюсона 2015 года, переработанная и дополненная. Если коротко, то данное видео о человеческой тяге к творчеству и психологических особенностях, которые могут…
Это склейка из четырех частей проекта Everything is a remix Кирби Фергюсона 2015 года, переработанная и дополненная. Если коротко, то данное видео о человеческой тяге к творчеству и психологических особенностях, которые могут…
Media is too big
VIEW IN TELEGRAM
Это ах-рен-ный пример того, как ИИ становится соавтором, а не заменой человеческого творчества
На этапе препродакшена Джек Бэннон и Гибсон Хазард использовали ИИ для визуализации рекламны Nike с Трэвисом Скоттом
Было сгенерировано более 5000 изображений в MidJourney для раскадровки и поиска визуальной подачи. А дальше команда классического продакшена создала каждую сцену, в том числе съемки на зеленке и VFX
Я уже много говорил о том, что ИИ как инструмент вдохновения может подвинуть классические Pinterest, Behance и подобные площадки. То есть сессии генераций в нейросетях — это крутой инструмент для творческих поисков
Абсолютно точно убеждён, что генеративный ИИ существует не для того, чтобы заменить человеческое творчество. Он даёт творческим конкурентное преимущество
На этапе препродакшена Джек Бэннон и Гибсон Хазард использовали ИИ для визуализации рекламны Nike с Трэвисом Скоттом
Было сгенерировано более 5000 изображений в MidJourney для раскадровки и поиска визуальной подачи. А дальше команда классического продакшена создала каждую сцену, в том числе съемки на зеленке и VFX
Я уже много говорил о том, что ИИ как инструмент вдохновения может подвинуть классические Pinterest, Behance и подобные площадки. То есть сессии генераций в нейросетях — это крутой инструмент для творческих поисков
Абсолютно точно убеждён, что генеративный ИИ существует не для того, чтобы заменить человеческое творчество. Он даёт творческим конкурентное преимущество
«Только для волшебников»
Так подписал свой пост Канье Уэст, с поиском специалистов в команду по работе с ИИ (пост, который потом удалил)
Канье вообще одним из первых начал использовать новые креативные технологии в своих клипах. Сначала, 11 месяцев назад, вышел клип на трек Vultures, затем 6 месяцев назад — клип на трек Gimme A Second 2, а месяц назад его дочери выпустили клип Bomb
А буквально 10 дней назад он показал трейлер фильма под названием Vultures: The Movie, созданного в ретро-эстетике, с помощью нейросетей
Вообще, человек, который заменил свои зубы на титановые протезы и постоянно придумывает нестандартные и креативные проекты, точно понимает, что генеративные технологии — это кроличья нора бесконечного креативного контента
Так подписал свой пост Канье Уэст, с поиском специалистов в команду по работе с ИИ (пост, который потом удалил)
Канье вообще одним из первых начал использовать новые креативные технологии в своих клипах. Сначала, 11 месяцев назад, вышел клип на трек Vultures, затем 6 месяцев назад — клип на трек Gimme A Second 2, а месяц назад его дочери выпустили клип Bomb
А буквально 10 дней назад он показал трейлер фильма под названием Vultures: The Movie, созданного в ретро-эстетике, с помощью нейросетей
Вообще, человек, который заменил свои зубы на титановые протезы и постоянно придумывает нестандартные и креативные проекты, точно понимает, что генеративные технологии — это кроличья нора бесконечного креативного контента
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Made with Google VideoFX/Veo 2
Собрал, на мой взгляд, хорошие работы от создателей с ранним доступом (Passage 12 от The Dor Brothers — мой фаворит, с точки зрения повествования)
Когда речь заходит о реалистичной физике, освещении, весе, движении, видно, насколько они опережают другие видеогенераторы
Тот же Kling, конечно, далеко не отстает и остается лучшей видеомоделью для меня. А вышедший на днях Luma Ray2 (именно image-to-video) дает очень близкие результаты к VEO 2
Google хитро придумали: вместо классического image-to-video они сделали text-to-image-to-video. То есть с помощью встроенной в процесс Imagen 3 сначала генерируется изображение, которое можно предварительно увидеть, а потом из него создается видео
Из примеров работ видно, что последовательность довольно хорошая (ну если прям в мелкие детали не вдаваться). Есть еще одна хитрость, касающаяся контроля результата: с помощью их же инструмента Whisk можно загрузить референс объекта (персонажа), сцены и стиля, контролируемо сгенерировать изображение, взять получившийся промпт и использовать его в VEO 2 в процессе генерации text-to-image-to-video. В итоге изображение получается практически один в один
Пока версия на сайте недоступна для всех (можно только whitelist заполнить), они добавили лайтовую версию VEO 2 в приложение YouTube. Лайтовую — потому что качество ниже, только вертикальный формат и с вотермаркой
А вообще, пора бы уже понять, что дело не только в инструментах, качество которых уже достаточно для многих задумок, но и в человеке, который ими пользуется
Credit: The Dor Brothers, Dave Clark, Ruairi Robinson, Jason Zada, Daniel Barak, Kavan the kid, László Gaál, Henry Daubrez
Собрал, на мой взгляд, хорошие работы от создателей с ранним доступом (Passage 12 от The Dor Brothers — мой фаворит, с точки зрения повествования)
Когда речь заходит о реалистичной физике, освещении, весе, движении, видно, насколько они опережают другие видеогенераторы
Тот же Kling, конечно, далеко не отстает и остается лучшей видеомоделью для меня. А вышедший на днях Luma Ray2 (именно image-to-video) дает очень близкие результаты к VEO 2
Google хитро придумали: вместо классического image-to-video они сделали text-to-image-to-video. То есть с помощью встроенной в процесс Imagen 3 сначала генерируется изображение, которое можно предварительно увидеть, а потом из него создается видео
Из примеров работ видно, что последовательность довольно хорошая (ну если прям в мелкие детали не вдаваться). Есть еще одна хитрость, касающаяся контроля результата: с помощью их же инструмента Whisk можно загрузить референс объекта (персонажа), сцены и стиля, контролируемо сгенерировать изображение, взять получившийся промпт и использовать его в VEO 2 в процессе генерации text-to-image-to-video. В итоге изображение получается практически один в один
Пока версия на сайте недоступна для всех (можно только whitelist заполнить), они добавили лайтовую версию VEO 2 в приложение YouTube. Лайтовую — потому что качество ниже, только вертикальный формат и с вотермаркой
А вообще, пора бы уже понять, что дело не только в инструментах, качество которых уже достаточно для многих задумок, но и в человеке, который ими пользуется
Credit: The Dor Brothers, Dave Clark, Ruairi Robinson, Jason Zada, Daniel Barak, Kavan the kid, László Gaál, Henry Daubrez