Telegram Web
MJ до конца года порадует обновлениями. Первое значимое — это расширенный редактор, где можно инпейнтить и аутпейнтить любые загруженные изображения

Для тех, кто в теме давно, ещё со времён Stable Diffusion (им вообще еще кто-то пользуется?), функция «ретекстуринга» будет понятна и знакома. ControlNet в MidJourney наконец-то реализован. Неужели эти три слова теперь можно произносить вместе? Это конечно вызов для Adobe Firefly с их функцией референса структуры. Теперь и в MJ можно загружать примитивные формы и генерировать из них нужные изображения

И, конечно, всё это можно применять с референсами стиля, персонажа и любым sref
А еще можно загрузить любой объект на прозрачном фоне и органично встроить его в любую локацию

Другие обновления MJ до конца года — это генерация 3D и видео

Каждый день происходит прогресс в рабочих процессах и кративных инструментах. Именно поэтому на нашем образовательном проекте А::Й/ВИДЕО для всех участников мы будем целый год обновлять материалы, как только будет появляться что-то новое и значимое. Это можно даже назвать сообществом творческих людей или, как сейчас модно говорить, «Клуб»

Вся инфа на сайте byai.ru. Если вы в предзаписи, то осталось 2 дня до окончания действия промокода на 15% (тут пока(!) в него еще можно попасть @whatisitaivideo_bot)
Идея для видео в рилсы

Видео начинается с карандашного наброска (можно даже первую секунду сделать с реальной рукой, в которой карандаш и как рука убирается из кадра), потом все перетекает в разные стили. То есть тут связка нового ретекстуринга от Midjourney и кейфремов от Luma или Kling. На фон накинуть звуки от Elevenlabs и музыку от Suno или Udio. И сделать еще видео зацикленным, то есть взять начальный кадр из реального видео с рукой и использовать его как последний в кейфремах

Если придумать интересные визуалы и в целом идеи, то может собирать просмотры, чисто ради эксперимента сделать 20 разных таких видео и выложить на новых аккаунтах во всех соц. сетях, где есть вертикальные видео

В производстве дела не хитрое. Загвоздка может быть в рисовании чего-то от руки, а с идеями точно справится ChatGPT
This media is not supported in your browser
VIEW IN TELEGRAM
Сравнение нового Runway Act one и старого ViggleAI

У Act One заметно лучшее качество и детализация. У ViggleAI больше движений, включая движения тела, но также больше искажений

Вообще, у них разный принцип работы, но по сути они решают одну задачу. ViggleAI берёт только персонажа из исходного видео и заменяет его персонажем с изображения, то есть выполняет трекинг всего тела. А вот у Act One пока только мимику лица с еле заметными движениями плеч

Если дополнительно пропускать результат от ViggleAI, через video-to-video от Runway то должно получаться очень хорошо (но только если не нужен персонаж с изображения)
Бу — это имя обезьяны, которая пытается запустить свой бизнес и ведёт свой амоБлог

Сделали видео с помощью нейросети для рекламной интеграции в новом выпуске про Ozon. Это большой выпуск про маркетплейс, в котором есть рекламная интеграция AmoCRM

Поставил таймкод сразу на начало интеграции, но вообще посмотрите весь выпуск и гляньте другие видео на их канале

Иллюстрации рисовала команда ютубозапускационного агентства «Джони и Клайд», а моушен я делал в Kling

Получилось, конечно, смешно!
Как управлять ракурсом в Midjourney или любой другой модели text-to-image

Иногда, чтобы получить уникальные кадры, можно в промпте использовать сразу несколько названий ракурсов
Дообучение видеомодели Kling на своих данных

Как известно, генерация видео из текста всегда качественнее, чем генерация видео из изображений

В Kling решили сделать Custom Face Video Model, чтобы можно было загрузить видеоданные с самим собой и обучить собственную видеомодель для полной согласованности персонажа. Это позволит генерировать качественные видео из текста, погружая себя в любые локации и действия. То есть, в результате будет не просто человек с вашим лицом, который ведёт себя, как это предустановлено в модели, а точное повторение ваших жестов и мимики (если они будут в вашем датасете)

Для дообучения модели нужно до 30 горизонтальных видео с собой по 15 секунд, в разных ракурсах. Видео должно быть хорошего качества, с хорошим освещением, без людей на заднем плане. За дообучение берут 999 кредитов (то есть где-то $20)

Далее просто пишем промпт с выбранной моделью лица, описываем, во что одет персонаж и что он делает, а также обстановку, в которой он находится, и т. д.

Думаю, это имеет место быть, особенно если дальше будет возможность совмещать несколько обученных моделей. НО, опять же, при генерации из изображений у нас есть полный контроль над композицией кадра

Обновление скоро появится у всех пользователей

_
А::Й /ВИДЕО — Образовательный проект для нового поколения создателей визуального видео контента. Стартуем 15 ноября. В боте есть скидка @whatisitaivideo_bot
This media is not supported in your browser
VIEW IN TELEGRAM
Интересную вещь сделали в Blendbox

Есть генерация в реальном времени, где рисуешь «что-то», и это «что-то» превращается в то, что напишешь в промпте. В Blendbox пошли чуть-чуть дальше добавив генерацию отдельных предметов и редактор со слоями — и всё это с генерацией в реальном времени

По сути, можно создать каждую деталь изображения отдельно и из этого составить любую композицию, исключая случайности в результате

Можно смешивать сложные идеи, перетаскивая их друг на друга, исследовать новые художественные стили и видеть, как они по-новому влияют на всё изображение

Это нужно, когда хочется именно творить и визуализировать, задействуя своё воображение и управляя каждой деталью. Такой себе «фотошоп нового времени»

Бесплатно попробовать не получится (почему-то?!), нужна подписка от $3,5
This media is not supported in your browser
VIEW IN TELEGRAM
Наше видение человека, который прошел образовательный проект А::Й / Видео — это специалист (ИИ-режиссер), который не просто создает визуальный контент с помощью нейросетей, а делает это осознанно, ориентируясь на идею и смысл

Он понимает основы драматургии, умеет превратить любой замысел в продуманный визуал и точно знает, как выразить задуманное через кадр и визуальную подачу

Он ежедневно развивает свой визуальный вкус и насмотренность, что помогает ему чувствовать эстетику и использовать ее в своих проектах

Этот специалист умеет управлять процессом генерации, получает предсказуемые результаты и контролирует их качество

Он понимает, какие кинематографические приемы можно применить в создании видео и как использовать монтаж так, чтобы поддерживать драматургическое напряжение, динамику и ритм

В своих работах он ставит на первое место смысл, идею и посыл, благодаря чему зритель ощущает эмоции и погружается в суть истории

Мы уже во всю готовимся к старту А::Й / Видео, а оно уже 15 ноября.
Еще 2 дня будет действовать промокод на 7% — АЙВИДЕО7


Вот сайт с подробностями — byai.ru
2025/06/27 11:31:21
Back to Top
HTML Embed Code: