This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Что я понял после нескольких дней тестов Luma и наблюдения за сообществом
Extend в Luma дает возможность строить очень длинные, непрерывные сцены, перемещаться по пространству, то есть буквально можно строить миры и управлять всем, что происходит в сцене. Иногда халтурно но вы можете сидеть, стоять, бегать, подбегать, танцевать... Все, что угодно
Можно одно и то же изображение запустить с разным описанием движения камеры и потом на монтаже сделать реверс одного из видео и склеить, получив длинный пролёт камеры
Если включена опция «Enhance Prompt», то Luma хорошо понимает то, что изображено на картинке и её контекст. То есть в прописывании промпта можно писать только, какое движение нужно и каких деталей. По умолчанию #Luma добавляет много движения в кадре, его можно контролировать, прописав силу движения в промпте, например: «slight movement of the camera to the right» или «the head slowly turns to the left». Если не получается то, что нужно, можно отключить «Enhance Prompt» и самому описать то, что на изображении, и описать движение
Помочь с описанием движений может GPT (в поиске GPTs https://chatgpt.com/gpts напишите Luma Dream Machine, я пробовал от Доброкотова), он анализирует изображение, описывает его и прописывает, какое может быть движение в этом кадре. Помогает, когда нужны идеи или то, от чего можно оттолкнуться
Ещё из обновлений в #Luma:
— на платных тарифах теперь не будет вотермарки
— появится возможность редактирования любых деталей в сгенерированной сцене и понятное управление камерой
Как хорошо, что у меня есть личная «умная лента» по теме технологий и ИИ. Она позволяет мне быть на гребне волны и видеть то, что получается у энтузиастов и ИИ-исследователей =)
Extend в Luma дает возможность строить очень длинные, непрерывные сцены, перемещаться по пространству, то есть буквально можно строить миры и управлять всем, что происходит в сцене. Иногда халтурно но вы можете сидеть, стоять, бегать, подбегать, танцевать... Все, что угодно
Можно одно и то же изображение запустить с разным описанием движения камеры и потом на монтаже сделать реверс одного из видео и склеить, получив длинный пролёт камеры
Если включена опция «Enhance Prompt», то Luma хорошо понимает то, что изображено на картинке и её контекст. То есть в прописывании промпта можно писать только, какое движение нужно и каких деталей. По умолчанию #Luma добавляет много движения в кадре, его можно контролировать, прописав силу движения в промпте, например: «slight movement of the camera to the right» или «the head slowly turns to the left». Если не получается то, что нужно, можно отключить «Enhance Prompt» и самому описать то, что на изображении, и описать движение
Помочь с описанием движений может GPT (в поиске GPTs https://chatgpt.com/gpts напишите Luma Dream Machine, я пробовал от Доброкотова), он анализирует изображение, описывает его и прописывает, какое может быть движение в этом кадре. Помогает, когда нужны идеи или то, от чего можно оттолкнуться
Ещё из обновлений в #Luma:
— на платных тарифах теперь не будет вотермарки
— появится возможность редактирования любых деталей в сгенерированной сцене и понятное управление камерой
Как хорошо, что у меня есть личная «умная лента» по теме технологий и ИИ. Она позволяет мне быть на гребне волны и видеть то, что получается у энтузиастов и ИИ-исследователей =)
tgoop.com/whatisitsergey/345
Create:
Last Update:
Last Update:
Что я понял после нескольких дней тестов Luma и наблюдения за сообществом
Extend в Luma дает возможность строить очень длинные, непрерывные сцены, перемещаться по пространству, то есть буквально можно строить миры и управлять всем, что происходит в сцене. Иногда халтурно но вы можете сидеть, стоять, бегать, подбегать, танцевать... Все, что угодно
Можно одно и то же изображение запустить с разным описанием движения камеры и потом на монтаже сделать реверс одного из видео и склеить, получив длинный пролёт камеры
Если включена опция «Enhance Prompt», то Luma хорошо понимает то, что изображено на картинке и её контекст. То есть в прописывании промпта можно писать только, какое движение нужно и каких деталей. По умолчанию #Luma добавляет много движения в кадре, его можно контролировать, прописав силу движения в промпте, например: «slight movement of the camera to the right» или «the head slowly turns to the left». Если не получается то, что нужно, можно отключить «Enhance Prompt» и самому описать то, что на изображении, и описать движение
Помочь с описанием движений может GPT (в поиске GPTs https://chatgpt.com/gpts напишите Luma Dream Machine, я пробовал от Доброкотова), он анализирует изображение, описывает его и прописывает, какое может быть движение в этом кадре. Помогает, когда нужны идеи или то, от чего можно оттолкнуться
Ещё из обновлений в #Luma:
— на платных тарифах теперь не будет вотермарки
— появится возможность редактирования любых деталей в сгенерированной сцене и понятное управление камерой
Как хорошо, что у меня есть личная «умная лента» по теме технологий и ИИ. Она позволяет мне быть на гребне волны и видеть то, что получается у энтузиастов и ИИ-исследователей =)
Extend в Luma дает возможность строить очень длинные, непрерывные сцены, перемещаться по пространству, то есть буквально можно строить миры и управлять всем, что происходит в сцене. Иногда халтурно но вы можете сидеть, стоять, бегать, подбегать, танцевать... Все, что угодно
Можно одно и то же изображение запустить с разным описанием движения камеры и потом на монтаже сделать реверс одного из видео и склеить, получив длинный пролёт камеры
Если включена опция «Enhance Prompt», то Luma хорошо понимает то, что изображено на картинке и её контекст. То есть в прописывании промпта можно писать только, какое движение нужно и каких деталей. По умолчанию #Luma добавляет много движения в кадре, его можно контролировать, прописав силу движения в промпте, например: «slight movement of the camera to the right» или «the head slowly turns to the left». Если не получается то, что нужно, можно отключить «Enhance Prompt» и самому описать то, что на изображении, и описать движение
Помочь с описанием движений может GPT (в поиске GPTs https://chatgpt.com/gpts напишите Luma Dream Machine, я пробовал от Доброкотова), он анализирует изображение, описывает его и прописывает, какое может быть движение в этом кадре. Помогает, когда нужны идеи или то, от чего можно оттолкнуться
Ещё из обновлений в #Luma:
— на платных тарифах теперь не будет вотермарки
— появится возможность редактирования любых деталей в сгенерированной сцене и понятное управление камерой
Как хорошо, что у меня есть личная «умная лента» по теме технологий и ИИ. Она позволяет мне быть на гребне волны и видеть то, что получается у энтузиастов и ИИ-исследователей =)
BY OZEROV
Share with your friend now:
tgoop.com/whatisitsergey/345