Обновление Flow
Пока все следят за хайпом вокруг Sora, Google продолжает тихо, но методично прокачивать Veo. В Flow появился полноценный контроль над камерой, причём уже в готовых генерациях.
Другие модели тоже воспринимают инструкции по движению камеры, но обычно это делается до генерации. Google же добавили возможность делать это после: сначала генерируешь ролик, а потом можешь изменить положение камеры, траекторию её движения или добавить детали через Insert (первые два работают лучше на кадрах со статичной камерой, что логично). Insert, кстати, это буквально видео-инпейнт — выделяешь зону и пишешь, что изменить. И это ещё один камень в огород Runway Aleph, который теперь выигрывает только тем, что в него можно загружать реальное видео.
Insert — очевидно, золотой инструмент для доработки шотов и чистки артефактов. А вот зачем нужны остальные две функции, пока не очень понятно, ведь у Veo с контролем камеры и так всё хорошо, ему не нужен этот костыль, как у старых версий Kling. Пайплайн "генерация статики → добавление движения" звучит странно, разве что для мультикамерного монтажа. Возможно, дельцы в комментариях подскажут зачем это в нейропродакшене. А вот как способ получать дополнительные ракурсы на реальном уже отснятом материале звучит очень интересно. Про бесплатный VFX с Insert, я вообще молчу.
Sora, конечно, подкупает своими мультишот-видео по 25 секунд, но Veo делает ставку на контроль и предсказуемость, а для этого мультишот не нужен.
К слову, Krea и Runway недавно запустили свои ноды, но ведь, по сути, Opal уже имеет такой же функционал. Да, скриптов не хватает, но какие-то простейшие автоматизации по работе с Nano Banana × Veo уже можно строить.
Единственное что смущает, это то что рано или поздно все продукты Гугла оказываются на свалке. Вот не умеют они строить хорошие новые продукты для энд-юзера.
Пока доступно только подписчикам Ultra, но зато безлимитно.
Flow
@ai_newz
Пока все следят за хайпом вокруг Sora, Google продолжает тихо, но методично прокачивать Veo. В Flow появился полноценный контроль над камерой, причём уже в готовых генерациях.
Другие модели тоже воспринимают инструкции по движению камеры, но обычно это делается до генерации. Google же добавили возможность делать это после: сначала генерируешь ролик, а потом можешь изменить положение камеры, траекторию её движения или добавить детали через Insert (первые два работают лучше на кадрах со статичной камерой, что логично). Insert, кстати, это буквально видео-инпейнт — выделяешь зону и пишешь, что изменить. И это ещё один камень в огород Runway Aleph, который теперь выигрывает только тем, что в него можно загружать реальное видео.
Insert — очевидно, золотой инструмент для доработки шотов и чистки артефактов. А вот зачем нужны остальные две функции, пока не очень понятно, ведь у Veo с контролем камеры и так всё хорошо, ему не нужен этот костыль, как у старых версий Kling. Пайплайн "генерация статики → добавление движения" звучит странно, разве что для мультикамерного монтажа. Возможно, дельцы в комментариях подскажут зачем это в нейропродакшене. А вот как способ получать дополнительные ракурсы на реальном уже отснятом материале звучит очень интересно. Про бесплатный VFX с Insert, я вообще молчу.
Sora, конечно, подкупает своими мультишот-видео по 25 секунд, но Veo делает ставку на контроль и предсказуемость, а для этого мультишот не нужен.
К слову, Krea и Runway недавно запустили свои ноды, но ведь, по сути, Opal уже имеет такой же функционал. Да, скриптов не хватает, но какие-то простейшие автоматизации по работе с Nano Banana × Veo уже можно строить.
Единственное что смущает, это то что рано или поздно все продукты Гугла оказываются на свалке. Вот не умеют они строить хорошие новые продукты для энд-юзера.
Пока доступно только подписчикам Ultra, но зато безлимитно.
Flow
@ai_newz
❤90🔥47👍17❤🔥10⚡3🦄2🫡1
group-telegram.com/ai_newz/4253
Create:
Last Update:
Last Update:
Обновление Flow
Пока все следят за хайпом вокруг Sora, Google продолжает тихо, но методично прокачивать Veo. В Flow появился полноценный контроль над камерой, причём уже в готовых генерациях.
Другие модели тоже воспринимают инструкции по движению камеры, но обычно это делается до генерации. Google же добавили возможность делать это после: сначала генерируешь ролик, а потом можешь изменить положение камеры, траекторию её движения или добавить детали через Insert (первые два работают лучше на кадрах со статичной камерой, что логично). Insert, кстати, это буквально видео-инпейнт — выделяешь зону и пишешь, что изменить. И это ещё один камень в огород Runway Aleph, который теперь выигрывает только тем, что в него можно загружать реальное видео.
Insert — очевидно, золотой инструмент для доработки шотов и чистки артефактов. А вот зачем нужны остальные две функции, пока не очень понятно, ведь у Veo с контролем камеры и так всё хорошо, ему не нужен этот костыль, как у старых версий Kling. Пайплайн "генерация статики → добавление движения" звучит странно, разве что для мультикамерного монтажа. Возможно, дельцы в комментариях подскажут зачем это в нейропродакшене. А вот как способ получать дополнительные ракурсы на реальном уже отснятом материале звучит очень интересно. Про бесплатный VFX с Insert, я вообще молчу.
Sora, конечно, подкупает своими мультишот-видео по 25 секунд, но Veo делает ставку на контроль и предсказуемость, а для этого мультишот не нужен.
К слову, Krea и Runway недавно запустили свои ноды, но ведь, по сути, Opal уже имеет такой же функционал. Да, скриптов не хватает, но какие-то простейшие автоматизации по работе с Nano Banana × Veo уже можно строить.
Единственное что смущает, это то что рано или поздно все продукты Гугла оказываются на свалке. Вот не умеют они строить хорошие новые продукты для энд-юзера.
Пока доступно только подписчикам Ultra, но зато безлимитно.
Flow
@ai_newz
Пока все следят за хайпом вокруг Sora, Google продолжает тихо, но методично прокачивать Veo. В Flow появился полноценный контроль над камерой, причём уже в готовых генерациях.
Другие модели тоже воспринимают инструкции по движению камеры, но обычно это делается до генерации. Google же добавили возможность делать это после: сначала генерируешь ролик, а потом можешь изменить положение камеры, траекторию её движения или добавить детали через Insert (первые два работают лучше на кадрах со статичной камерой, что логично). Insert, кстати, это буквально видео-инпейнт — выделяешь зону и пишешь, что изменить. И это ещё один камень в огород Runway Aleph, который теперь выигрывает только тем, что в него можно загружать реальное видео.
Insert — очевидно, золотой инструмент для доработки шотов и чистки артефактов. А вот зачем нужны остальные две функции, пока не очень понятно, ведь у Veo с контролем камеры и так всё хорошо, ему не нужен этот костыль, как у старых версий Kling. Пайплайн "генерация статики → добавление движения" звучит странно, разве что для мультикамерного монтажа. Возможно, дельцы в комментариях подскажут зачем это в нейропродакшене. А вот как способ получать дополнительные ракурсы на реальном уже отснятом материале звучит очень интересно. Про бесплатный VFX с Insert, я вообще молчу.
Sora, конечно, подкупает своими мультишот-видео по 25 секунд, но Veo делает ставку на контроль и предсказуемость, а для этого мультишот не нужен.
К слову, Krea и Runway недавно запустили свои ноды, но ведь, по сути, Opal уже имеет такой же функционал. Да, скриптов не хватает, но какие-то простейшие автоматизации по работе с Nano Banana × Veo уже можно строить.
Единственное что смущает, это то что рано или поздно все продукты Гугла оказываются на свалке. Вот не умеют они строить хорошие новые продукты для энд-юзера.
Пока доступно только подписчикам Ultra, но зато безлимитно.
Flow
@ai_newz
BY эйай ньюз
Share with your friend now:
group-telegram.com/ai_newz/4253
