Telegram Web
This media is not supported in your browser
VIEW IN TELEGRAM
Гигантизма на улицах городов теперь станет больше

Видели же эти рекламные видео от брендов с гигантскими товарами на улицах города? Похоже, с появлением нового ИИ инструментария, создавать такие видео стало в разы проще

Рабочий пайплайн такой:
С помощью приложения Luma AI - https://lumalabs.ai/ или Polycam - https://poly.cam/, сканируем любой объект, получаем 3D-модель.
Дальше эту 3D-модель можно анимировать в Blender - https://www.blender.org/.
С помощью Simulon - https://simulon.com/ сканируем пространство, куда будет встраиваться 3D-модель с анимацией, настраиваем сцену и рендерим финальное видео

Общее время работы, вот, например, кроссовка и его базовой анимации (как он кружится и падает) — 30-40 минут

Какие у вас есть идеи? Что вы думаете?
This media is not supported in your browser
VIEW IN TELEGRAM
«Воздухоголовый» возвращается

Помните историю «Air head», что создали с помощью нейросети Sora? Команда из Shy kids, создавшая её, выпустила продолжение — «Сдутый»

Круто, что они комбинируют реальную съёмку актёров и генеративное видео в одной сцене. Конечно, Sora очень сложно контролируема. Об этом говорят все креаторы, что имеют к ней доступ, но это интересно поисследовать — сколько комбинаций возможно будет из этого вытащить
This media is not supported in your browser
VIEW IN TELEGRAM
Офигенная коллекция стилей для Midjourney

Татьяна, автор коллекции, из сотни sref-кодов отобрала 15 и протестировала их на разных предметах и сценах. Я забрал себе в закладки несколько для будущих проектов

Татьяна классная, давно её читаю в Твиттере. В файле есть на неё ссылка. Пдфка со стилями тут
Го в создадим кино?!

У меня давно висит доступ к LTX Studio, но не было времени нормально потестить этот ИИ-сервис по созданию (кИИно?) визуального сторителлинга «под ключ»

Давайте вместе разделим этот момент и подумаем, о чем будет наш с вами совместный фильм? Я хочу от вас идеи!
Media is too big
VIEW IN TELEGRAM
Пока я жду еще ваших идей для нашего будущего фИИльма, поисследовал платформу

Деталей, на которые можно влиять, действительно много. И прикольно то, что, изучая все, в голове складываются пазлы — из чего состоит вообще производство. Для новичков это однозначно очень полезный инструмент

Сначала создаются актеры, актерам можно поменять лицо, актеров можно добавить. Дальше создаются сцены, в сценах есть кадры, кадры можно добавлять. Сценам можно сделать саундтрек. Кадрам можно добавить саунд-дизайн. В сценах можно менять ракурсы, можно стирать и добавлять объекты внутри кадров

В общем, контроля достаточно, чтобы сделать из этого последовательную историю. По качеству пока ничего не скажу, позже, когда углублюсь в этот этап

Если интересно, напишите любые свои идеи в предыдущем посте, а дальше проголосуем за лучшую идею и начнем творИИть
AI FILM FESTIVAL 2024 всё!

В этом году фильммейкеры на фестивале создания кино с помощью новых креативных технологий вернулись к применению live action и традиционного ручного моушена, поняв, что генерировать все сцены нейросетью — это пока что огромное творческое ограничение в рассказывании истории

И мне нравится, что так происходит, потому что все это стало превращаться в полную херню. Конкурсы, где за 48-72 часа надо сделать что-то с помощью ИИ в неумелых руках и в сжатые сроки, плодят безвкусыне и однообразные работы без понимания базы
Но важно сказать, что всегда, на первом месте будет идея, какой бы красивый визуал ни был, красоту сейчас очень просто создавать. Осталось научиться мыслить концепциями и придумывать идеи

Все 10 фильмов-финалистов действительно достойны быть выбранными из 3000 присланных работ. И 3 первых места — очень сильные, глубокие работы

Собрал все работы тут, посмотрите и пойдем в комментарии это обсудим — https://teletype.in/@whatisitsergey/AIFILMFESTIVAL2024
Собрал все ваши идеи для истории, которую мы вместе создаем во время теста ИИ сервиса LTXstudio

Идеи писали в этом посте https://www.tgoop.com/whatisitsergey/319 Давайте голосовать!
Anonymous Poll
4%
Что нибудь про супергероев
8%
Коллайдер взорвался и на планете стали появлялся чёрные дыры
17%
Спор человека и ИИ, кто живой
13%
Пожилой человек на грани смерти вспоминает момент о котором сожалеет когда отказался от своей мечты
5%
Вселенная котов - котозвездные войны, котомарвел
14%
Котёнок техножреца ищет своего хозяина в зомби-апокалипсисе Смешариков в канун Нового Года (что?!)
19%
Группа космонавтов совершает экстренную посадку и встречает там множество копий самих себя
13%
История про заурядного человека, который сталкивается с событием, которое меняет его жизнь
7%
Заурядный человек находит артефакт и попадает в параллельную вселённую, где его копия пропала
От фотореализма до сюрреализма и анимации

Google показал свою видеомодель Veo. Как и Sora от OpenAI, а также китайская нейросеть Vidu, нейросеть от Google умеет генерировать до 60 секунд видео. Инфы про самое интересное, будет ли image-to-video не нашёл, есть только text-to-video, а результаты такой генерации априори хороши. Но опять же, контроля и предсказуемости при text-to-video никакой

Мне нравится, что доступ УЖЕ дали части бета-тестерам, и я в их числе, еще со времен тестирования музыкальной нейросети MusicFX, а значит жду письмо на почту. Модель также появится в YouTube Shorts и других продуктах. Нравится вся эта гонка компаний. Нам креативным, это все на руку

Записаться в whitelist
Media is too big
VIEW IN TELEGRAM
Удобный видеоморфинг

Побетатестил видеомодель от KREAI, точнее тут будет правильнее сказать их интерфейс, ведь они взяли открытую технологию AnimationDiff и сделали удобное управление с помощью keyframe. Всё это давно уже можно делать в более сложном нодовом интерфейсе ComfyUI.
/ Кто делает мир удобным, тот и зарабатывает деньги/

По результатам пока нестабильно, через раз, можно легко будет делать красивые вещи, если подойти к творческому процессу с умом

В открытом доступе будет скоро. Вообще сама технология мне нравится как в чистом видео, так и как ту же технологию используют, например, в Moonvalley и какие результаты у них получаются

Вообще, у KREAI и реалтайм-генерация, и креативный апскейлер работают очень хорошо, уверен, что и видеогенерацию они доведут до ума, когда она выйдет в открытый доступ
OZEROV
Собрал все ваши идеи для истории, которую мы вместе создаем во время теста ИИ сервиса LTXstudio

Идеи писали в этом посте https://www.tgoop.com/whatisitsergey/319 Давайте голосовать!
Сложная задача будет для эйай с одинаковыми то лицами) ну ладно, мы же тут тестим ИИ сервис LTXstudio и никуда не торопимся?)

Завтра будем на сцены все разбивать, пока подробный промпт для ltxstudio подготовлю
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрели Фоллаут?

А вот как создавались эффекты в этом сериале студией Rise FX. Я вот смотрю и понимаю, как практически все можно реализовать с помощью ИИ. С помощью уже доступных креативных инструментов или пока тех, что в закрытом доступе, как тот же Simulon для встраивания 3D в отснятое видео. Как много всего можно снять на зелёном фоне со сгенерированными локациями. Как можно легко делать мейт-пейнтинг (достраивание деталей в сцене) в ИИ фотошопе. И Generation fill для видео, который пока есть только у Pika, а скоро и в PremierPro появится. Создание кино демократизируется

А про съемки на зелёном фоне скоро расскажу интересный кейс — как можно сочетать его с технологией дипфейка

Люблю такие видео с изнанкой процесса, они отрезвляют и дают понять, как все устроено. +к насмотренности

Кстати, как вам сериал? Если ещё не смотрели, рекомендую к просмотру
This media is not supported in your browser
VIEW IN TELEGRAM
Еще одно закулисье применения VFX и нейросети Sora

Полезно будет подглядеть процесс создания этого видео от студии Shy kids

Сегодня день закулисья)

Завтра уже продолжим тестить ltxstudio, будем сцены генерировать
Прикиньте, это один из промптов для Sora, по которому генерировались сцены клипа. Автор этого клипа поделился. Напоминает stable diffusion полтора годичной давности. Промпт на столько длинный, что лучше я его картинкой вставлю
2025/06/28 19:04:03
Back to Top
HTML Embed Code: