Telegram Web
Media is too big
VIEW IN TELEGRAM
Помните, в сети вирусился ролик в стиле анимации Ghibli Studio на оркестровый саундтрек Многоточие — «В жизни так бывает»?

Его сделали Сергей Козлов и Дмитрий Алексеев с помощью нейросетей и традиционного монтажа в After Effects
Ребята просто решили поэкспериментировать, а ролик начали публиковать крупные телеграм-каналы и различные СМИ. О нём сняли репортаж на телевидении, а также напечатали статью в газете московского метрополитена.

А ещё они сделали официальный клип для группы PAIN, который уже набрал 572 тысячи просмотров на YouTube. А в конце октября выйдет новый ролик, который, как говорит Дима, ещё круче, чем клип для PAIN 😳

Мы пригласили Дмитрия на наш образовательный проект А::Й/ВИДЕО выступить с лекцией на тему: «Как через режиссёрские приёмы, арт-дирекшн и идеи создавать органичные проекты, которые не будут выглядеть как работы нейросетей. Как сама идея может направлять визуальный стиль. Как не ждать развития новых моделей и наслаждаться текущими возможностями».

Вот сайт, присоединяйтесь — https://byai.ru/

Если пролистать посты чуть выше (ладно не листайте, вот он @whatisitaivideo_bot), можно найти вход в предзапись, а там будет приятный промокод, который действует последние 3 дня
Как-то в 2023 году меня пригласили выступить на молодёжном форуме «Шум» в Калининграде, где я рассказывал и показывал применение нейросетей на реальных клиентских проектах

Тогда я познакомился с Андреем Дейч — сценаристом и режиссёром, который давно работает в креативной индустрии ТВ и кино. Он сотрудничал с многими известными режиссёрами как постсоветского пространства, так и запада: Ридли Скоттом, Кристофером Ноланом, Тимуром Бекмамбетовым и другими

Андрей будет у нас на А::Й /ВИДЕО с лекцией «Режиссёрское видение, как его развивать и почему нейронки без него создают черепки без жизни»

Вот его канал @visualgeshtalt , он интересно пишет про режиссуру, внимание и использование этого навыка в жизни. Подписывайтесь, если откликается!
MJ до конца года порадует обновлениями. Первое значимое — это расширенный редактор, где можно инпейнтить и аутпейнтить любые загруженные изображения

Для тех, кто в теме давно, ещё со времён Stable Diffusion (им вообще еще кто-то пользуется?), функция «ретекстуринга» будет понятна и знакома. ControlNet в MidJourney наконец-то реализован. Неужели эти три слова теперь можно произносить вместе? Это конечно вызов для Adobe Firefly с их функцией референса структуры. Теперь и в MJ можно загружать примитивные формы и генерировать из них нужные изображения

И, конечно, всё это можно применять с референсами стиля, персонажа и любым sref
А еще можно загрузить любой объект на прозрачном фоне и органично встроить его в любую локацию

Другие обновления MJ до конца года — это генерация 3D и видео

Каждый день происходит прогресс в рабочих процессах и кративных инструментах. Именно поэтому на нашем образовательном проекте А::Й/ВИДЕО для всех участников мы будем целый год обновлять материалы, как только будет появляться что-то новое и значимое. Это можно даже назвать сообществом творческих людей или, как сейчас модно говорить, «Клуб»

Вся инфа на сайте byai.ru. Если вы в предзаписи, то осталось 2 дня до окончания действия промокода на 15% (тут пока(!) в него еще можно попасть @whatisitaivideo_bot)
Идея для видео в рилсы

Видео начинается с карандашного наброска (можно даже первую секунду сделать с реальной рукой, в которой карандаш и как рука убирается из кадра), потом все перетекает в разные стили. То есть тут связка нового ретекстуринга от Midjourney и кейфремов от Luma или Kling. На фон накинуть звуки от Elevenlabs и музыку от Suno или Udio. И сделать еще видео зацикленным, то есть взять начальный кадр из реального видео с рукой и использовать его как последний в кейфремах

Если придумать интересные визуалы и в целом идеи, то может собирать просмотры, чисто ради эксперимента сделать 20 разных таких видео и выложить на новых аккаунтах во всех соц. сетях, где есть вертикальные видео

В производстве дела не хитрое. Загвоздка может быть в рисовании чего-то от руки, а с идеями точно справится ChatGPT
This media is not supported in your browser
VIEW IN TELEGRAM
Сравнение нового Runway Act one и старого ViggleAI

У Act One заметно лучшее качество и детализация. У ViggleAI больше движений, включая движения тела, но также больше искажений

Вообще, у них разный принцип работы, но по сути они решают одну задачу. ViggleAI берёт только персонажа из исходного видео и заменяет его персонажем с изображения, то есть выполняет трекинг всего тела. А вот у Act One пока только мимику лица с еле заметными движениями плеч

Если дополнительно пропускать результат от ViggleAI, через video-to-video от Runway то должно получаться очень хорошо (но только если не нужен персонаж с изображения)
Бу — это имя обезьяны, которая пытается запустить свой бизнес и ведёт свой амоБлог

Сделали видео с помощью нейросети для рекламной интеграции в новом выпуске про Ozon. Это большой выпуск про маркетплейс, в котором есть рекламная интеграция AmoCRM

Поставил таймкод сразу на начало интеграции, но вообще посмотрите весь выпуск и гляньте другие видео на их канале

Иллюстрации рисовала команда ютубозапускационного агентства «Джони и Клайд», а моушен я делал в Kling

Получилось, конечно, смешно!
Как управлять ракурсом в Midjourney или любой другой модели text-to-image

Иногда, чтобы получить уникальные кадры, можно в промпте использовать сразу несколько названий ракурсов
Дообучение видеомодели Kling на своих данных

Как известно, генерация видео из текста всегда качественнее, чем генерация видео из изображений

В Kling решили сделать Custom Face Video Model, чтобы можно было загрузить видеоданные с самим собой и обучить собственную видеомодель для полной согласованности персонажа. Это позволит генерировать качественные видео из текста, погружая себя в любые локации и действия. То есть, в результате будет не просто человек с вашим лицом, который ведёт себя, как это предустановлено в модели, а точное повторение ваших жестов и мимики (если они будут в вашем датасете)

Для дообучения модели нужно до 30 горизонтальных видео с собой по 15 секунд, в разных ракурсах. Видео должно быть хорошего качества, с хорошим освещением, без людей на заднем плане. За дообучение берут 999 кредитов (то есть где-то $20)

Далее просто пишем промпт с выбранной моделью лица, описываем, во что одет персонаж и что он делает, а также обстановку, в которой он находится, и т. д.

Думаю, это имеет место быть, особенно если дальше будет возможность совмещать несколько обученных моделей. НО, опять же, при генерации из изображений у нас есть полный контроль над композицией кадра

Обновление скоро появится у всех пользователей

_
А::Й /ВИДЕО — Образовательный проект для нового поколения создателей визуального видео контента. Стартуем 15 ноября. В боте есть скидка @whatisitaivideo_bot
2025/06/29 04:27:24
Back to Top
HTML Embed Code: