Небольшая команда кинематографистов создала полнометражный мультфильм с помощью ИИ
Это знаковое событие, потому что оно в целом доказывает концепцию того, что ИИ можно и нужно использовать для создания полноценной сюжетной истории с небольшим бюджетом и силами небольшой команды
Конечно, 100% мультфильма не было сделано с помощью ИИ. Он стал основным инструментом, но не единственным. Главная задача новых технологий — помогать рассказчикам воплощать идеи, а не становиться заменой всего и вся
Основная сила мультфильма — в истории. Сюжет настолько захватывает, что я перестал думать о том, что это создано с помощью ИИ. Это очень важно: если технология становится заметнее сюжета, то это провал
Также в сюжете минимум физического взаимодействия между персонажами, что значительно упрощает процесс анимации. Это позволило сосредоточиться на эмоциональной составляющей без технических усложнений
Фильм также использует настоящих актёров озвучки, что конечно большой плюс, ведь ИИ-голоса пока не могут передавать эмоции так же точно, как живые актёры. Ещё одна успешная техника — использование захвата движений (motion capture), что добавило движениям персонажей правдоподобности
В целом, мульфильм «Где растут Роботы» демонстрирует, как можно объединить традиционные технологии с ИИ для создания полноценного мультфильма
Смотрел с русским дубляжем в Я.браузере
Это знаковое событие, потому что оно в целом доказывает концепцию того, что ИИ можно и нужно использовать для создания полноценной сюжетной истории с небольшим бюджетом и силами небольшой команды
Конечно, 100% мультфильма не было сделано с помощью ИИ. Он стал основным инструментом, но не единственным. Главная задача новых технологий — помогать рассказчикам воплощать идеи, а не становиться заменой всего и вся
Основная сила мультфильма — в истории. Сюжет настолько захватывает, что я перестал думать о том, что это создано с помощью ИИ. Это очень важно: если технология становится заметнее сюжета, то это провал
Также в сюжете минимум физического взаимодействия между персонажами, что значительно упрощает процесс анимации. Это позволило сосредоточиться на эмоциональной составляющей без технических усложнений
Фильм также использует настоящих актёров озвучки, что конечно большой плюс, ведь ИИ-голоса пока не могут передавать эмоции так же точно, как живые актёры. Ещё одна успешная техника — использование захвата движений (motion capture), что добавило движениям персонажей правдоподобности
В целом, мульфильм «Где растут Роботы» демонстрирует, как можно объединить традиционные технологии с ИИ для создания полноценного мультфильма
Смотрел с русским дубляжем в Я.браузере
YouTube
Where The Robots Grow | Full Movie | Family | Adventure | First Ai Feature Film | 2024 | 4K
Where the Robots Grow is film for all the family. Set in a future where Earth’s last survivors send robots to farm a new world called Oracle. The latest model of robot, Cru, finds his purpose in life redefined by a pod carrying the last human baby.
The…
The…
Честное мнение о всех доступных генераторах видео
Runway Gen-3
Хорош для более стабильных шотов без явной динамики в кадре. Дает хорошую чёткость видео, но изменение контрастности — явный косяк (или только я один это замечаю?). Лучшая модель для видео-ту-видео стилизации загруженных видео. Они первыми начали продвигать понятие GVFX для создания эффектов в реальных снимках, и у них это получается хорошо
Kling
Единственная на данный момент модель, которая генерирует в разрешении 1080. Стабильный результат, хороший баланс между стабильностью и динамикой в кадре. Очень хорошо работает Motion Brush для управления объектами в кадре, даёт отличные результаты в большинстве генераций. Генерация очень доооолгая, особенно если это 10-секундные шоты
Minimax
Дает самую лучшую динамику в кадре из-за чего и иногда получаются результаты с морфингом (искажениями). В целом модель отлично подходит для задач, где требуются естественные движения в кадре
Luma
Хорошо работают ключевые кадры. Если использовать модель как обычный генератор, результаты получаются «мыльными» и уступают вышеупомянутым моделям
Pika
Неплохо натренировали новую модель на эффектах, но это больше фан и маркетинг. Модель хуже, чем та же Luma. Не вижу ни одной причины использовать её в рабочих процессах
Haiper
Обновились до версии 2.0: улучшилась динамика, но по-прежнему много брака с морфингом. Уровень примерно между Luma и Pika. В обновлении появилась возможность добавлять промежуточные кадры — первый, второй и третий. Также, как и в новом Premier Pro, можно продлевать загруженное видео
На текущий момент идеальная связка для действительно качественной работы — это точечное использование функционала Kling (Motion Brush, кейфреймы, просто моушен кадров) и использование по полной Minimax для большинства генераций кадров. Для точечных задач можно применять Gen-3 с генерацией до последнего фрейма и, конечно, функционал видео-ту-видео
А::Й /ВИДЕО — Образовательный проект для нового поколения создателей визуального контента
Runway Gen-3
Хорош для более стабильных шотов без явной динамики в кадре. Дает хорошую чёткость видео, но изменение контрастности — явный косяк (или только я один это замечаю?). Лучшая модель для видео-ту-видео стилизации загруженных видео. Они первыми начали продвигать понятие GVFX для создания эффектов в реальных снимках, и у них это получается хорошо
Kling
Единственная на данный момент модель, которая генерирует в разрешении 1080. Стабильный результат, хороший баланс между стабильностью и динамикой в кадре. Очень хорошо работает Motion Brush для управления объектами в кадре, даёт отличные результаты в большинстве генераций. Генерация очень доооолгая, особенно если это 10-секундные шоты
Minimax
Дает самую лучшую динамику в кадре из-за чего и иногда получаются результаты с морфингом (искажениями). В целом модель отлично подходит для задач, где требуются естественные движения в кадре
Luma
Хорошо работают ключевые кадры. Если использовать модель как обычный генератор, результаты получаются «мыльными» и уступают вышеупомянутым моделям
Pika
Неплохо натренировали новую модель на эффектах, но это больше фан и маркетинг. Модель хуже, чем та же Luma. Не вижу ни одной причины использовать её в рабочих процессах
Haiper
Обновились до версии 2.0: улучшилась динамика, но по-прежнему много брака с морфингом. Уровень примерно между Luma и Pika. В обновлении появилась возможность добавлять промежуточные кадры — первый, второй и третий. Также, как и в новом Premier Pro, можно продлевать загруженное видео
На текущий момент идеальная связка для действительно качественной работы — это точечное использование функционала Kling (Motion Brush, кейфреймы, просто моушен кадров) и использование по полной Minimax для большинства генераций кадров. Для точечных задач можно применять Gen-3 с генерацией до последнего фрейма и, конечно, функционал видео-ту-видео
А::Й /ВИДЕО — Образовательный проект для нового поколения создателей визуального контента
Выглядит круто..
Стилизация от GEN3 + любое референсное изображение с персонажем + захват движения головы, губ и глаз = игра одного актера, ну или как это назвали Runway — «Act-one»
Говорят, что хорошо улавливаются движения в разных ракурсах и расстояниях
По сути это усовершенствованная технология Live portrait на движке стилизации GEN3
Заметил еще, что примеры все обрезанные по пояс. Интересно будет ли это работать в полный рост и в движении? (нет! смысл инструмента именно в повествовании, а не стилизации)
Будет доступно для всех на днях
Стилизация от GEN3 + любое референсное изображение с персонажем + захват движения головы, губ и глаз = игра одного актера, ну или как это назвали Runway — «Act-one»
Говорят, что хорошо улавливаются движения в разных ракурсах и расстояниях
По сути это усовершенствованная технология Live portrait на движке стилизации GEN3
Заметил еще, что примеры все обрезанные по пояс. Интересно будет ли это работать в полный рост и в движении? (нет! смысл инструмента именно в повествовании, а не стилизации)
Будет доступно для всех на днях
Media is too big
VIEW IN TELEGRAM
Помните, в сети вирусился ролик в стиле анимации Ghibli Studio на оркестровый саундтрек Многоточие — «В жизни так бывает»?
Его сделали Сергей Козлов и Дмитрий Алексеев с помощью нейросетей и традиционного монтажа в After Effects
Ребята просто решили поэкспериментировать, а ролик начали публиковать крупные телеграм-каналы и различные СМИ. О нём сняли репортаж на телевидении, а также напечатали статью в газете московского метрополитена.
А ещё они сделали официальный клип для группы PAIN, который уже набрал 572 тысячи просмотров на YouTube. А в конце октября выйдет новый ролик, который, как говорит Дима, ещё круче, чем клип для PAIN 😳
Мы пригласили Дмитрия на наш образовательный проект А::Й/ВИДЕО выступить с лекцией на тему: «Как через режиссёрские приёмы, арт-дирекшн и идеи создавать органичные проекты, которые не будут выглядеть как работы нейросетей. Как сама идея может направлять визуальный стиль. Как не ждать развития новых моделей и наслаждаться текущими возможностями».
Вот сайт, присоединяйтесь — https://byai.ru/
Если пролистать посты чуть выше (ладно не листайте, вот он @whatisitaivideo_bot ), можно найти вход в предзапись, а там будет приятный промокод, который действует последние 3 дня
Его сделали Сергей Козлов и Дмитрий Алексеев с помощью нейросетей и традиционного монтажа в After Effects
Ребята просто решили поэкспериментировать, а ролик начали публиковать крупные телеграм-каналы и различные СМИ. О нём сняли репортаж на телевидении, а также напечатали статью в газете московского метрополитена.
А ещё они сделали официальный клип для группы PAIN, который уже набрал 572 тысячи просмотров на YouTube. А в конце октября выйдет новый ролик, который, как говорит Дима, ещё круче, чем клип для PAIN 😳
Мы пригласили Дмитрия на наш образовательный проект А::Й/ВИДЕО выступить с лекцией на тему: «Как через режиссёрские приёмы, арт-дирекшн и идеи создавать органичные проекты, которые не будут выглядеть как работы нейросетей. Как сама идея может направлять визуальный стиль. Как не ждать развития новых моделей и наслаждаться текущими возможностями».
Вот сайт, присоединяйтесь — https://byai.ru/
Как-то в 2023 году меня пригласили выступить на молодёжном форуме «Шум» в Калининграде, где я рассказывал и показывал применение нейросетей на реальных клиентских проектах
Тогда я познакомился с Андреем Дейч — сценаристом и режиссёром, который давно работает в креативной индустрии ТВ и кино. Он сотрудничал с многими известными режиссёрами как постсоветского пространства, так и запада: Ридли Скоттом, Кристофером Ноланом, Тимуром Бекмамбетовым и другими
Андрей будет у нас на А::Й /ВИДЕО с лекцией «Режиссёрское видение, как его развивать и почему нейронки без него создают черепки без жизни»
Вот его канал @visualgeshtalt , он интересно пишет про режиссуру, внимание и использование этого навыка в жизни. Подписывайтесь, если откликается!
Тогда я познакомился с Андреем Дейч — сценаристом и режиссёром, который давно работает в креативной индустрии ТВ и кино. Он сотрудничал с многими известными режиссёрами как постсоветского пространства, так и запада: Ридли Скоттом, Кристофером Ноланом, Тимуром Бекмамбетовым и другими
Андрей будет у нас на А::Й /ВИДЕО с лекцией «Режиссёрское видение, как его развивать и почему нейронки без него создают черепки без жизни»
Вот его канал @visualgeshtalt , он интересно пишет про режиссуру, внимание и использование этого навыка в жизни. Подписывайтесь, если откликается!
MJ до конца года порадует обновлениями. Первое значимое — это расширенный редактор, где можно инпейнтить и аутпейнтить любые загруженные изображения
Для тех, кто в теме давно, ещё со времён Stable Diffusion (им вообще еще кто-то пользуется?), функция «ретекстуринга» будет понятна и знакома. ControlNet в MidJourney наконец-то реализован. Неужели эти три слова теперь можно произносить вместе? Это конечно вызов для Adobe Firefly с их функцией референса структуры. Теперь и в MJ можно загружать примитивные формы и генерировать из них нужные изображения
И, конечно, всё это можно применять с референсами стиля, персонажа и любым sref
А еще можно загрузить любой объект на прозрачном фоне и органично встроить его в любую локацию
Другие обновления MJ до конца года — это генерация 3D и видео
Каждый день происходит прогресс в рабочих процессах и кративных инструментах. Именно поэтому на нашем образовательном проекте А::Й/ВИДЕО для всех участников мы будем целый год обновлять материалы, как только будет появляться что-то новое и значимое. Это можно даже назвать сообществом творческих людей или, как сейчас модно говорить, «Клуб»
Вся инфа на сайте byai.ru. Если вы в предзаписи, то осталось 2 дня до окончания действия промокода на 15%(тут пока(!) в него еще можно попасть @whatisitaivideo_bot )
Для тех, кто в теме давно, ещё со времён Stable Diffusion (им вообще еще кто-то пользуется?), функция «ретекстуринга» будет понятна и знакома. ControlNet в MidJourney наконец-то реализован. Неужели эти три слова теперь можно произносить вместе? Это конечно вызов для Adobe Firefly с их функцией референса структуры. Теперь и в MJ можно загружать примитивные формы и генерировать из них нужные изображения
И, конечно, всё это можно применять с референсами стиля, персонажа и любым sref
А еще можно загрузить любой объект на прозрачном фоне и органично встроить его в любую локацию
Другие обновления MJ до конца года — это генерация 3D и видео
Каждый день происходит прогресс в рабочих процессах и кративных инструментах. Именно поэтому на нашем образовательном проекте А::Й/ВИДЕО для всех участников мы будем целый год обновлять материалы, как только будет появляться что-то новое и значимое. Это можно даже назвать сообществом творческих людей или, как сейчас модно говорить, «Клуб»
Вся инфа на сайте byai.ru. Если вы в предзаписи, то осталось 2 дня до окончания действия промокода на 15%
Идея для видео в рилсы
Видео начинается с карандашного наброска (можно даже первую секунду сделать с реальной рукой, в которой карандаш и как рука убирается из кадра), потом все перетекает в разные стили. То есть тут связка нового ретекстуринга от Midjourney и кейфремов от Luma или Kling. На фон накинуть звуки от Elevenlabs и музыку от Suno или Udio. И сделать еще видео зацикленным, то есть взять начальный кадр из реального видео с рукой и использовать его как последний в кейфремах
Если придумать интересные визуалы и в целом идеи, то может собирать просмотры, чисто ради эксперимента сделать 20 разных таких видео и выложить на новых аккаунтах во всех соц. сетях, где есть вертикальные видео
В производстве дела не хитрое. Загвоздка может быть в рисовании чего-то от руки, а с идеями точно справится ChatGPT
Видео начинается с карандашного наброска (можно даже первую секунду сделать с реальной рукой, в которой карандаш и как рука убирается из кадра), потом все перетекает в разные стили. То есть тут связка нового ретекстуринга от Midjourney и кейфремов от Luma или Kling. На фон накинуть звуки от Elevenlabs и музыку от Suno или Udio. И сделать еще видео зацикленным, то есть взять начальный кадр из реального видео с рукой и использовать его как последний в кейфремах
Если придумать интересные визуалы и в целом идеи, то может собирать просмотры, чисто ради эксперимента сделать 20 разных таких видео и выложить на новых аккаунтах во всех соц. сетях, где есть вертикальные видео
В производстве дела не хитрое. Загвоздка может быть в рисовании чего-то от руки, а с идеями точно справится ChatGPT
This media is not supported in your browser
VIEW IN TELEGRAM
Сравнение нового Runway Act one и старого ViggleAI
У Act One заметно лучшее качество и детализация. У ViggleAI больше движений, включая движения тела, но также больше искажений
Вообще, у них разный принцип работы, но по сути они решают одну задачу. ViggleAI берёт только персонажа из исходного видео и заменяет его персонажем с изображения, то есть выполняет трекинг всего тела. А вот у Act One пока только мимику лица с еле заметными движениями плеч
Если дополнительно пропускать результат от ViggleAI, через video-to-video от Runway то должно получаться очень хорошо (но только если не нужен персонаж с изображения)
У Act One заметно лучшее качество и детализация. У ViggleAI больше движений, включая движения тела, но также больше искажений
Вообще, у них разный принцип работы, но по сути они решают одну задачу. ViggleAI берёт только персонажа из исходного видео и заменяет его персонажем с изображения, то есть выполняет трекинг всего тела. А вот у Act One пока только мимику лица с еле заметными движениями плеч
Если дополнительно пропускать результат от ViggleAI, через video-to-video от Runway то должно получаться очень хорошо (но только если не нужен персонаж с изображения)
Бу — это имя обезьяны, которая пытается запустить свой бизнес и ведёт свой амоБлог
Сделали видео с помощью нейросети для рекламной интеграции в новом выпуске про Ozon. Это большой выпуск про маркетплейс, в котором есть рекламная интеграция AmoCRM
Поставил таймкод сразу на начало интеграции, но вообще посмотрите весь выпуск и гляньте другие видео на их канале
Иллюстрации рисовала команда ютубозапускационного агентства «Джони и Клайд», а моушен я делал в Kling
Получилось, конечно, смешно!
Сделали видео с помощью нейросети для рекламной интеграции в новом выпуске про Ozon. Это большой выпуск про маркетплейс, в котором есть рекламная интеграция AmoCRM
Поставил таймкод сразу на начало интеграции, но вообще посмотрите весь выпуск и гляньте другие видео на их канале
Иллюстрации рисовала команда ютубозапускационного агентства «Джони и Клайд», а моушен я делал в Kling
Получилось, конечно, смешно!
YouTube
ПРОДАТЬ ЛЮБОЙ ЦЕНОЙ
Все мы понимаем, зачем покупать со скидками. Экономия! Выгодно! Кайф!
А зачем продавать со скидками? На самом деле при разумном подходе скидки так же выгодны для продавца, как и для покупателя. С их помощью ты можешь увеличить прибыль, освободить склад,…
А зачем продавать со скидками? На самом деле при разумном подходе скидки так же выгодны для продавца, как и для покупателя. С их помощью ты можешь увеличить прибыль, освободить склад,…
Как управлять ракурсом в Midjourney или любой другой модели text-to-image
Иногда, чтобы получить уникальные кадры, можно в промпте использовать сразу несколько названий ракурсов
Иногда, чтобы получить уникальные кадры, можно в промпте использовать сразу несколько названий ракурсов