Telegram Web
ИИ в 3D

Инструмент Meshcapade из текста создает болванку тела с любыми движениями. Инструмент из загруженного реального видео с человеком фиксирует его движения создавая мокап. А если к этому сверху добавить рендер video-to-video от gen3, то какие творческие штуки можно делать, кто мне скажет?

Пока это самая недооцененная связка и мало кто понимает, как это внедрять в свои проекты, возможно, когда можно будет video-to-video делать из референса изображения, чтобы сохранялся нужный стиль — к этому будет больше внимания

Учитывая, что у Runway скоро появится act two, где можно будет не только голову анимировать но и задействовать туловище — к этому будет еще больше внимания
Потестил обучение Lora в KREA на примере стиля мультфильма про обезьяну Бу ютуб-канала амоБлог

Обучал именно стилю рисовки и сгенерировал пачку изображений по моему любимому промпту для исследований — «a film that no one has ever done before»

В моем датасете было много скринов с самой обезьяной, поэтому при генерациях нейросеть пыталась добавить её тоже, но поскольку я обучал именно на стиле, а не на персонаже, Бу не получился похожим сам на себя. В следующий раз попробую обучить модель именно на обезьяне Бу

Я понял, что чем разнообразнее будет датасет, тем больше разнообразия в результатах генерации. Хотя промпт у меня абстрактный, в композиции кадра заметна схожесть с датасетом и многодетальность, кроме самого стиля, конечно. При генерации я ставил силу стиля на 90% (примерно на глаз), чтобы немного подмешивались стили из оригинального датасета. Очень не хватает функции инпейнта, чтобы исправлять мелкие косяки в удачных генерациях прямо в одном интерфейсе, как в Midjourney. Ну и я предполагаю из за «киношного промпта», большинство генераций у меня получились темными

Lora обучается на модели Flux. Нужно минимум 3 изображения, я загрузил 25 шт. Обучение проходит быстро, за минут 7. Нужна подписка за $10

При генерации можно миксовать модели, например, стиль + персонаж или объект

Короче, штука не новая, и в Midjourney можно легко такое генерить, указывая ссылки на стиль, персонажа и композицию.

Вот сайт https://www.krea.ai/train , код для входа EARLYBIRD
На каждую «лучшую технологию» найдется еще лучше

У Runway's Act-One и у Live Portrаit есть несколько проблем, они не могут передавать быстрые движения головы и резкие повороты, незначительные изменения выражения лица и более сильные эмоции

А китайская модель X-Portrait 2 может! Китайцы первые во всем мире всего, что касается видео технологий. Потому что с генерацией текста и изображений они опоздали, а вот с генерацией видео решили уже не тупить. Они буквально ждут, пока какой нибудь Runway выпустит новую функцию, а затем делают ее лучше, намного лучше на «следующий день»

И так, у X-Portrait 2 получается более выразительная эмоция, плавная анимация с выражением лица, синхронизация губ реального фото и анимационного персонажа. Никаких проблем с быстрым разговором и боковым профилем

Очень интересно! Пока есть только рабочий док по технологии, но есть первая версия X-Portrait, которую уже можно попробовать
This media is not supported in your browser
VIEW IN TELEGRAM
Vidu опять что-то мутит

Видео генератор Vidu первым давно сделал возможность загружать своё фото с персонажем и генерировать с ним текст-ту-видео в любых действиях и локациях. Теперь они добавили возможность загружать не только референс персонажа, но и референс деталей и локации, чтобы объединять людей, объекты и окружение в одном генерированном видео. Единственное, что у них плохо, так это качество генерации, но направление в целом верное. Но (!) в имедж-ту-видео всё равно более контролируемый способ генерации видео
This media is not supported in your browser
VIEW IN TELEGRAM
Главная проблема нейронных сетей сейчас в том, что они не умеют передавать формы так точно, как это делает человек. Для человека форма — это главное, она должна нести его продолжение как личности в мире. Именно поэтому для человека форма является самым важным при создании чего-либо. Здесь и ощущается разница. Ведь большая разница между желанием выразить себя и просто подобрать что-то подходящее, не так ли? Детали решают.

Вы ведь уже видели рекламный ролик Coca-Cola?
This media is not supported in your browser
VIEW IN TELEGRAM
Как создавалась официальная ИИ-реклама кока-кола

Тезисно:
— Работали 17 художников
— Было генерировано 18000+ изображений
— Было сгенерировано 85 минут видео, которые превратились в 15 секунд
— Работали 3 недели
— Была записана оригинальная музыка
— В генерациях изображений использовались лица реальных людей

Ой какой интересный будет 25 год на применение новых креативных технологий в медиа
Media is too big
VIEW IN TELEGRAM
Генеративное видео расширяется

Вот небольшой тест использования новой функции расширения видео в Runway на примере сцены из фильма «Начало» и с использованием референса изображения. А вообще еще можно генерировать без и с подсказкой

Само исходное видео и изображение референс имеет большое значение для согласованности расширенного видео.
Чем более новый и сложный у вас фон, тем сложнее расширенным деталям соответствовать исходным данным

Очевидно, что эта функция открывает широкие возможности для создания VFX-кадров. Это сверхмощным генератор визуальных эффектов.
Еще можно соединить несколько расширений вместе, чтобы создать кинематографические движения камеры из статичных кадров. Короче это бесконечные возможности для переформатирования контента

До этого момента такой функционал был только у давно мной забытой Pika (хотя они там вроде шевелятся в плане качества своей видеомодели), но это все была «мыльная картинка» + у них так же есть наоборот дорисовка деталей в видео (Адоби там что-то анонсировал подобное, но как всегда ничего еще не вышло) — это тоже по качеству не применимо для проектов. Большая вероятность, что и у Runway будет дорисовка внутри видео. Ведь если расширять теперь можно и еще с таким качеством то и дорисовка деталей тоже очень, очень близко

Как вы думаете, будут ли студии использовать эту технологию, чтобы взять старые фильмы в формате 4:3 и растянуть их до 16:9?
Видео, из-за которого меня забанили в Midjourney

У них очень жёсткие правила по работе с новым редактором, а я генерировал там довольно жёсткие кадры, точнее — ретекстурировал. Потому что нам нужна была жесть, дичь и безумие

Это видео вышло на канале Амо Блог, в рекламной интеграции AmoCRM. Команда агентства «Джони и Клайд» нарисовала иллюстрацию, а я превратил эту иллюстрацию в реалистичного человека (референсом был мем с вечно улыбающимся человеком, который едет в машине и у которого всегда хорошее настроение). А дальше с помощью креативного пересвета в Krea я их ужесточил, чтобы добавить больше дичи на фон. Ну а моушен с липсинком делал в Kling

У меня была оплачена годовая подписка, которая открывала доступ к этому чудо-редактору в Midjourney, но после того как я не смог докупить быстрые часы и написал в поддержку, я привлёк к себе внимание. Они посмотрели мои «страшные генерации» и забанили за нарушения правил сообщества. Я, конечно же, написал апелляцию, но, как показывает практика, шансы на разблокировку минимальны

Короче, новый редактор в Midjourney — это очень мощный и крутой инструмент с возможностью редактирования загруженных изображений и ретекстурирования, и он доступен только тем, у кого годовой тарифный план на официальном сайте

Но сейчас уже есть возможность пользоваться этим редактором в боте Syntx — тут моя реферальная ссылка если что. Советую попробовать поиграться

Такие дела
Sora ис хир!

Посмотрел первый обзор интерфейса видеогенератора Sora, который доверили техноблогеру Маркесу Браунли и вот что думаю:

Что никакого вау лично для меня тут нет. Hailuo Minimax или недавно вышедший опенсорс Hunyuan Video (сделаю пост о нем позже) уже все это умеют. Что жесткая модерация всего и вся не даст развернуться творческой мысли. Будем посмотреть

Из прикольного — функция сториборда, которая позволяет комбинировать несколько подсказок и несколько изображений для создания длинных видео с плавными переходами.

За 20$ в максимальном качестве 720p и разрешении 1:1 будет где-то 30 видео по 5 секунд
За 200$ в максимальном качестве 1080p долгий безлимит или где-то 50 быстрых видео по 5 секунд в разрешении 1:1

В тарифе за $20 нельзя генерировать из изображений, где есть люди

Выйдет уже прям вот вот — https://sora.com/
2025/06/27 08:33:35
Back to Top
HTML Embed Code: