Telegram Web
This media is not supported in your browser
VIEW IN TELEGRAM
Наше видение человека, который прошел образовательный проект А::Й / Видео — это специалист (ИИ-режиссер), который не просто создает визуальный контент с помощью нейросетей, а делает это осознанно, ориентируясь на идею и смысл

Он понимает основы драматургии, умеет превратить любой замысел в продуманный визуал и точно знает, как выразить задуманное через кадр и визуальную подачу

Он ежедневно развивает свой визуальный вкус и насмотренность, что помогает ему чувствовать эстетику и использовать ее в своих проектах

Этот специалист умеет управлять процессом генерации, получает предсказуемые результаты и контролирует их качество

Он понимает, какие кинематографические приемы можно применить в создании видео и как использовать монтаж так, чтобы поддерживать драматургическое напряжение, динамику и ритм

В своих работах он ставит на первое место смысл, идею и посыл, благодаря чему зритель ощущает эмоции и погружается в суть истории

Мы уже во всю готовимся к старту А::Й / Видео, а оно уже 15 ноября.
Еще 2 дня будет действовать промокод на 7% — АЙВИДЕО7


Вот сайт с подробностями — byai.ru
ИИ в 3D

Инструмент Meshcapade из текста создает болванку тела с любыми движениями. Инструмент из загруженного реального видео с человеком фиксирует его движения создавая мокап. А если к этому сверху добавить рендер video-to-video от gen3, то какие творческие штуки можно делать, кто мне скажет?

Пока это самая недооцененная связка и мало кто понимает, как это внедрять в свои проекты, возможно, когда можно будет video-to-video делать из референса изображения, чтобы сохранялся нужный стиль — к этому будет больше внимания

Учитывая, что у Runway скоро появится act two, где можно будет не только голову анимировать но и задействовать туловище — к этому будет еще больше внимания
Потестил обучение Lora в KREA на примере стиля мультфильма про обезьяну Бу ютуб-канала амоБлог

Обучал именно стилю рисовки и сгенерировал пачку изображений по моему любимому промпту для исследований — «a film that no one has ever done before»

В моем датасете было много скринов с самой обезьяной, поэтому при генерациях нейросеть пыталась добавить её тоже, но поскольку я обучал именно на стиле, а не на персонаже, Бу не получился похожим сам на себя. В следующий раз попробую обучить модель именно на обезьяне Бу

Я понял, что чем разнообразнее будет датасет, тем больше разнообразия в результатах генерации. Хотя промпт у меня абстрактный, в композиции кадра заметна схожесть с датасетом и многодетальность, кроме самого стиля, конечно. При генерации я ставил силу стиля на 90% (примерно на глаз), чтобы немного подмешивались стили из оригинального датасета. Очень не хватает функции инпейнта, чтобы исправлять мелкие косяки в удачных генерациях прямо в одном интерфейсе, как в Midjourney. Ну и я предполагаю из за «киношного промпта», большинство генераций у меня получились темными

Lora обучается на модели Flux. Нужно минимум 3 изображения, я загрузил 25 шт. Обучение проходит быстро, за минут 7. Нужна подписка за $10

При генерации можно миксовать модели, например, стиль + персонаж или объект

Короче, штука не новая, и в Midjourney можно легко такое генерить, указывая ссылки на стиль, персонажа и композицию.

Вот сайт https://www.krea.ai/train , код для входа EARLYBIRD
На каждую «лучшую технологию» найдется еще лучше

У Runway's Act-One и у Live Portrаit есть несколько проблем, они не могут передавать быстрые движения головы и резкие повороты, незначительные изменения выражения лица и более сильные эмоции

А китайская модель X-Portrait 2 может! Китайцы первые во всем мире всего, что касается видео технологий. Потому что с генерацией текста и изображений они опоздали, а вот с генерацией видео решили уже не тупить. Они буквально ждут, пока какой нибудь Runway выпустит новую функцию, а затем делают ее лучше, намного лучше на «следующий день»

И так, у X-Portrait 2 получается более выразительная эмоция, плавная анимация с выражением лица, синхронизация губ реального фото и анимационного персонажа. Никаких проблем с быстрым разговором и боковым профилем

Очень интересно! Пока есть только рабочий док по технологии, но есть первая версия X-Portrait, которую уже можно попробовать
This media is not supported in your browser
VIEW IN TELEGRAM
Vidu опять что-то мутит

Видео генератор Vidu первым давно сделал возможность загружать своё фото с персонажем и генерировать с ним текст-ту-видео в любых действиях и локациях. Теперь они добавили возможность загружать не только референс персонажа, но и референс деталей и локации, чтобы объединять людей, объекты и окружение в одном генерированном видео. Единственное, что у них плохо, так это качество генерации, но направление в целом верное. Но (!) в имедж-ту-видео всё равно более контролируемый способ генерации видео
This media is not supported in your browser
VIEW IN TELEGRAM
Главная проблема нейронных сетей сейчас в том, что они не умеют передавать формы так точно, как это делает человек. Для человека форма — это главное, она должна нести его продолжение как личности в мире. Именно поэтому для человека форма является самым важным при создании чего-либо. Здесь и ощущается разница. Ведь большая разница между желанием выразить себя и просто подобрать что-то подходящее, не так ли? Детали решают.

Вы ведь уже видели рекламный ролик Coca-Cola?
This media is not supported in your browser
VIEW IN TELEGRAM
Как создавалась официальная ИИ-реклама кока-кола

Тезисно:
— Работали 17 художников
— Было генерировано 18000+ изображений
— Было сгенерировано 85 минут видео, которые превратились в 15 секунд
— Работали 3 недели
— Была записана оригинальная музыка
— В генерациях изображений использовались лица реальных людей

Ой какой интересный будет 25 год на применение новых креативных технологий в медиа
Media is too big
VIEW IN TELEGRAM
Генеративное видео расширяется

Вот небольшой тест использования новой функции расширения видео в Runway на примере сцены из фильма «Начало» и с использованием референса изображения. А вообще еще можно генерировать без и с подсказкой

Само исходное видео и изображение референс имеет большое значение для согласованности расширенного видео.
Чем более новый и сложный у вас фон, тем сложнее расширенным деталям соответствовать исходным данным

Очевидно, что эта функция открывает широкие возможности для создания VFX-кадров. Это сверхмощным генератор визуальных эффектов.
Еще можно соединить несколько расширений вместе, чтобы создать кинематографические движения камеры из статичных кадров. Короче это бесконечные возможности для переформатирования контента

До этого момента такой функционал был только у давно мной забытой Pika (хотя они там вроде шевелятся в плане качества своей видеомодели), но это все была «мыльная картинка» + у них так же есть наоборот дорисовка деталей в видео (Адоби там что-то анонсировал подобное, но как всегда ничего еще не вышло) — это тоже по качеству не применимо для проектов. Большая вероятность, что и у Runway будет дорисовка внутри видео. Ведь если расширять теперь можно и еще с таким качеством то и дорисовка деталей тоже очень, очень близко

Как вы думаете, будут ли студии использовать эту технологию, чтобы взять старые фильмы в формате 4:3 и растянуть их до 16:9?
2025/06/28 10:29:21
Back to Top
HTML Embed Code: