Telegram Web
This media is not supported in your browser
VIEW IN TELEGRAM
Интересную вещь сделали в Blendbox

Есть генерация в реальном времени, где рисуешь «что-то», и это «что-то» превращается в то, что напишешь в промпте. В Blendbox пошли чуть-чуть дальше добавив генерацию отдельных предметов и редактор со слоями — и всё это с генерацией в реальном времени

По сути, можно создать каждую деталь изображения отдельно и из этого составить любую композицию, исключая случайности в результате

Можно смешивать сложные идеи, перетаскивая их друг на друга, исследовать новые художественные стили и видеть, как они по-новому влияют на всё изображение

Это нужно, когда хочется именно творить и визуализировать, задействуя своё воображение и управляя каждой деталью. Такой себе «фотошоп нового времени»

Бесплатно попробовать не получится (почему-то?!), нужна подписка от $3,5
This media is not supported in your browser
VIEW IN TELEGRAM
Наше видение человека, который прошел образовательный проект А::Й / Видео — это специалист (ИИ-режиссер), который не просто создает визуальный контент с помощью нейросетей, а делает это осознанно, ориентируясь на идею и смысл

Он понимает основы драматургии, умеет превратить любой замысел в продуманный визуал и точно знает, как выразить задуманное через кадр и визуальную подачу

Он ежедневно развивает свой визуальный вкус и насмотренность, что помогает ему чувствовать эстетику и использовать ее в своих проектах

Этот специалист умеет управлять процессом генерации, получает предсказуемые результаты и контролирует их качество

Он понимает, какие кинематографические приемы можно применить в создании видео и как использовать монтаж так, чтобы поддерживать драматургическое напряжение, динамику и ритм

В своих работах он ставит на первое место смысл, идею и посыл, благодаря чему зритель ощущает эмоции и погружается в суть истории

Мы уже во всю готовимся к старту А::Й / Видео, а оно уже 15 ноября.
Еще 2 дня будет действовать промокод на 7% — АЙВИДЕО7


Вот сайт с подробностями — byai.ru
ИИ в 3D

Инструмент Meshcapade из текста создает болванку тела с любыми движениями. Инструмент из загруженного реального видео с человеком фиксирует его движения создавая мокап. А если к этому сверху добавить рендер video-to-video от gen3, то какие творческие штуки можно делать, кто мне скажет?

Пока это самая недооцененная связка и мало кто понимает, как это внедрять в свои проекты, возможно, когда можно будет video-to-video делать из референса изображения, чтобы сохранялся нужный стиль — к этому будет больше внимания

Учитывая, что у Runway скоро появится act two, где можно будет не только голову анимировать но и задействовать туловище — к этому будет еще больше внимания
Потестил обучение Lora в KREA на примере стиля мультфильма про обезьяну Бу ютуб-канала амоБлог

Обучал именно стилю рисовки и сгенерировал пачку изображений по моему любимому промпту для исследований — «a film that no one has ever done before»

В моем датасете было много скринов с самой обезьяной, поэтому при генерациях нейросеть пыталась добавить её тоже, но поскольку я обучал именно на стиле, а не на персонаже, Бу не получился похожим сам на себя. В следующий раз попробую обучить модель именно на обезьяне Бу

Я понял, что чем разнообразнее будет датасет, тем больше разнообразия в результатах генерации. Хотя промпт у меня абстрактный, в композиции кадра заметна схожесть с датасетом и многодетальность, кроме самого стиля, конечно. При генерации я ставил силу стиля на 90% (примерно на глаз), чтобы немного подмешивались стили из оригинального датасета. Очень не хватает функции инпейнта, чтобы исправлять мелкие косяки в удачных генерациях прямо в одном интерфейсе, как в Midjourney. Ну и я предполагаю из за «киношного промпта», большинство генераций у меня получились темными

Lora обучается на модели Flux. Нужно минимум 3 изображения, я загрузил 25 шт. Обучение проходит быстро, за минут 7. Нужна подписка за $10

При генерации можно миксовать модели, например, стиль + персонаж или объект

Короче, штука не новая, и в Midjourney можно легко такое генерить, указывая ссылки на стиль, персонажа и композицию.

Вот сайт https://www.krea.ai/train , код для входа EARLYBIRD
На каждую «лучшую технологию» найдется еще лучше

У Runway's Act-One и у Live Portrаit есть несколько проблем, они не могут передавать быстрые движения головы и резкие повороты, незначительные изменения выражения лица и более сильные эмоции

А китайская модель X-Portrait 2 может! Китайцы первые во всем мире всего, что касается видео технологий. Потому что с генерацией текста и изображений они опоздали, а вот с генерацией видео решили уже не тупить. Они буквально ждут, пока какой нибудь Runway выпустит новую функцию, а затем делают ее лучше, намного лучше на «следующий день»

И так, у X-Portrait 2 получается более выразительная эмоция, плавная анимация с выражением лица, синхронизация губ реального фото и анимационного персонажа. Никаких проблем с быстрым разговором и боковым профилем

Очень интересно! Пока есть только рабочий док по технологии, но есть первая версия X-Portrait, которую уже можно попробовать
This media is not supported in your browser
VIEW IN TELEGRAM
Vidu опять что-то мутит

Видео генератор Vidu первым давно сделал возможность загружать своё фото с персонажем и генерировать с ним текст-ту-видео в любых действиях и локациях. Теперь они добавили возможность загружать не только референс персонажа, но и референс деталей и локации, чтобы объединять людей, объекты и окружение в одном генерированном видео. Единственное, что у них плохо, так это качество генерации, но направление в целом верное. Но (!) в имедж-ту-видео всё равно более контролируемый способ генерации видео
This media is not supported in your browser
VIEW IN TELEGRAM
Главная проблема нейронных сетей сейчас в том, что они не умеют передавать формы так точно, как это делает человек. Для человека форма — это главное, она должна нести его продолжение как личности в мире. Именно поэтому для человека форма является самым важным при создании чего-либо. Здесь и ощущается разница. Ведь большая разница между желанием выразить себя и просто подобрать что-то подходящее, не так ли? Детали решают.

Вы ведь уже видели рекламный ролик Coca-Cola?
This media is not supported in your browser
VIEW IN TELEGRAM
Как создавалась официальная ИИ-реклама кока-кола

Тезисно:
— Работали 17 художников
— Было генерировано 18000+ изображений
— Было сгенерировано 85 минут видео, которые превратились в 15 секунд
— Работали 3 недели
— Была записана оригинальная музыка
— В генерациях изображений использовались лица реальных людей

Ой какой интересный будет 25 год на применение новых креативных технологий в медиа
2025/06/30 01:33:11
Back to Top
HTML Embed Code: