Telegram Web
This media is not supported in your browser
VIEW IN TELEGRAM
Дракон не считается

Какие предметы на столе настоящие, а какие нет?
Как стартап Simulon создаёт новые технологии для визуальных эффектов

Как это работает:
Сначала сканируется сцена — помещение или улица, просто с помощью смартфона и его камеры, а потом вставляется любая 3D-модель с анимацией или без. 3D-модель, учитывая особенности пространства, такие как свет и отражения, встраивается в него (зацените, как свет переливается на кузове Porsche). На видео с прыгающим гуманоидом, если прислушаться, есть звуки, которые можно отдельно подгружать вместе с моделью, и они автоматически пространственно смешиваются с реальными окружающими звуками из видео

Круто, что это продукт не для крупных киностудий и продакшенов, а для любых креативных спецов, которые создают контент. Изначально Simulon ориентирован на смартфоны, то есть это приложение, а сам окончательный рендер видео происходит в облаке

В общем, в очередной раз нам (креативным и талантливым) дают инструментарий. А что уже наши головы придумают, в какие идеи это всё обернётся, всё это уже зависит от нас. Нравится!

Инструмент на бета-тесте, запросить доступ можно здесь: https://simulon.com
This media is not supported in your browser
VIEW IN TELEGRAM
Гигантизма на улицах городов теперь станет больше

Видели же эти рекламные видео от брендов с гигантскими товарами на улицах города? Похоже, с появлением нового ИИ инструментария, создавать такие видео стало в разы проще

Рабочий пайплайн такой:
С помощью приложения Luma AI - https://lumalabs.ai/ или Polycam - https://poly.cam/, сканируем любой объект, получаем 3D-модель.
Дальше эту 3D-модель можно анимировать в Blender - https://www.blender.org/.
С помощью Simulon - https://simulon.com/ сканируем пространство, куда будет встраиваться 3D-модель с анимацией, настраиваем сцену и рендерим финальное видео

Общее время работы, вот, например, кроссовка и его базовой анимации (как он кружится и падает) — 30-40 минут

Какие у вас есть идеи? Что вы думаете?
This media is not supported in your browser
VIEW IN TELEGRAM
«Воздухоголовый» возвращается

Помните историю «Air head», что создали с помощью нейросети Sora? Команда из Shy kids, создавшая её, выпустила продолжение — «Сдутый»

Круто, что они комбинируют реальную съёмку актёров и генеративное видео в одной сцене. Конечно, Sora очень сложно контролируема. Об этом говорят все креаторы, что имеют к ней доступ, но это интересно поисследовать — сколько комбинаций возможно будет из этого вытащить
This media is not supported in your browser
VIEW IN TELEGRAM
Офигенная коллекция стилей для Midjourney

Татьяна, автор коллекции, из сотни sref-кодов отобрала 15 и протестировала их на разных предметах и сценах. Я забрал себе в закладки несколько для будущих проектов

Татьяна классная, давно её читаю в Твиттере. В файле есть на неё ссылка. Пдфка со стилями тут
Го в создадим кино?!

У меня давно висит доступ к LTX Studio, но не было времени нормально потестить этот ИИ-сервис по созданию (кИИно?) визуального сторителлинга «под ключ»

Давайте вместе разделим этот момент и подумаем, о чем будет наш с вами совместный фильм? Я хочу от вас идеи!
Media is too big
VIEW IN TELEGRAM
Пока я жду еще ваших идей для нашего будущего фИИльма, поисследовал платформу

Деталей, на которые можно влиять, действительно много. И прикольно то, что, изучая все, в голове складываются пазлы — из чего состоит вообще производство. Для новичков это однозначно очень полезный инструмент

Сначала создаются актеры, актерам можно поменять лицо, актеров можно добавить. Дальше создаются сцены, в сценах есть кадры, кадры можно добавлять. Сценам можно сделать саундтрек. Кадрам можно добавить саунд-дизайн. В сценах можно менять ракурсы, можно стирать и добавлять объекты внутри кадров

В общем, контроля достаточно, чтобы сделать из этого последовательную историю. По качеству пока ничего не скажу, позже, когда углублюсь в этот этап

Если интересно, напишите любые свои идеи в предыдущем посте, а дальше проголосуем за лучшую идею и начнем творИИть
AI FILM FESTIVAL 2024 всё!

В этом году фильммейкеры на фестивале создания кино с помощью новых креативных технологий вернулись к применению live action и традиционного ручного моушена, поняв, что генерировать все сцены нейросетью — это пока что огромное творческое ограничение в рассказывании истории

И мне нравится, что так происходит, потому что все это стало превращаться в полную херню. Конкурсы, где за 48-72 часа надо сделать что-то с помощью ИИ в неумелых руках и в сжатые сроки, плодят безвкусыне и однообразные работы без понимания базы
Но важно сказать, что всегда, на первом месте будет идея, какой бы красивый визуал ни был, красоту сейчас очень просто создавать. Осталось научиться мыслить концепциями и придумывать идеи

Все 10 фильмов-финалистов действительно достойны быть выбранными из 3000 присланных работ. И 3 первых места — очень сильные, глубокие работы

Собрал все работы тут, посмотрите и пойдем в комментарии это обсудим — https://teletype.in/@whatisitsergey/AIFILMFESTIVAL2024
Собрал все ваши идеи для истории, которую мы вместе создаем во время теста ИИ сервиса LTXstudio

Идеи писали в этом посте https://www.tgoop.com/whatisitsergey/319 Давайте голосовать!
Anonymous Poll
4%
Что нибудь про супергероев
8%
Коллайдер взорвался и на планете стали появлялся чёрные дыры
17%
Спор человека и ИИ, кто живой
13%
Пожилой человек на грани смерти вспоминает момент о котором сожалеет когда отказался от своей мечты
5%
Вселенная котов - котозвездные войны, котомарвел
14%
Котёнок техножреца ищет своего хозяина в зомби-апокалипсисе Смешариков в канун Нового Года (что?!)
19%
Группа космонавтов совершает экстренную посадку и встречает там множество копий самих себя
13%
История про заурядного человека, который сталкивается с событием, которое меняет его жизнь
7%
Заурядный человек находит артефакт и попадает в параллельную вселённую, где его копия пропала
От фотореализма до сюрреализма и анимации

Google показал свою видеомодель Veo. Как и Sora от OpenAI, а также китайская нейросеть Vidu, нейросеть от Google умеет генерировать до 60 секунд видео. Инфы про самое интересное, будет ли image-to-video не нашёл, есть только text-to-video, а результаты такой генерации априори хороши. Но опять же, контроля и предсказуемости при text-to-video никакой

Мне нравится, что доступ УЖЕ дали части бета-тестерам, и я в их числе, еще со времен тестирования музыкальной нейросети MusicFX, а значит жду письмо на почту. Модель также появится в YouTube Shorts и других продуктах. Нравится вся эта гонка компаний. Нам креативным, это все на руку

Записаться в whitelist
2025/07/01 01:41:21
Back to Top
HTML Embed Code: