This media is not supported in your browser
VIEW IN TELEGRAM
Держите-ка небольшой тизер. Звук погромче. Полная версия — скоро. Сделал проект — пока под NDA.
Если вы не видели предыдущие версии девчонок в кружевах, то смотрите в этом сообщении. Теперь же цель — достичь максимального реализма, а главное физики (чтобы грудь покачивалась, как надо и все вот это).
Если вы не видели предыдущие версии девчонок в кружевах, то смотрите в этом сообщении. Теперь же цель — достичь максимального реализма, а главное физики (чтобы грудь покачивалась, как надо и все вот это).
Я не писал ничего о вышедшей три дня назад Midjourney V7 Alpha не потому, что проигнорировал эту новость. Мне нужно было время, чтобы все протестировать и во всем разобраться. Чем я последние дни и занимался.
Итак, держите громадный обзор V7, в котором я разобрал этот релиз до пикселя. Прочтя его, вы поймете абсолютно все о том, что из себя представляет новая "семерка".
Читайте по этой ссылке.
p.s. И да, поставьте, пожалуйста, лайки на VC.ru — это поможет материалу попасть в основную ленту, а значит его увидит больше пользователей, которым материал тоже может быть полезен. Мерси.
Итак, держите громадный обзор V7, в котором я разобрал этот релиз до пикселя. Прочтя его, вы поймете абсолютно все о том, что из себя представляет новая "семерка".
Читайте по этой ссылке.
p.s. И да, поставьте, пожалуйста, лайки на VC.ru — это поможет материалу попасть в основную ленту, а значит его увидит больше пользователей, которым материал тоже может быть полезен. Мерси.
vc.ru
Полное сравнение Midjourney v6.1 и v7 (Alpha): что улучшили, что сломали (самый полный анализ релиза + все промты внутри) — AI…
Егор Апполонов AI сейчас
Курс ИИ-кино 2.0. Присоединяйтесь и начните создавать ии-видео
Курс уже идет (прошло 4 вебинара из 18), но у вас еще есть время запрыгнуть в наш нейроэкспресс.
Вы получите вечный доступ к записям и доступ в закрытый чат с очень классным комьюнити нейроэнтузиастов. Общение, обмен опытом, нетворкинг.
Специальный гость курса "ИИ-кино 2.0" — Валерия Гай-Германика. Валерия будет рассказывать, как работать с эмоцией, где искать настоящие истории, почему важна правда в кадре — и как ИИ может стать новым инструментом режиссера, не заменяя, а усиливая голос автора.
Присоединяйтесь к курсу. Это будет 18 эфиров (все участники получат записи с бессрочным доступом) не только по генерации видео, но также по сторителлингу, написанию сценариев, созданию рекламы и не только.
🤘 Программа и регистрация ЗДЕСЬ
Если у вас остались вопросы — напишите мне в личку, и я обязателньо отвечу.
Курс уже идет (прошло 4 вебинара из 18), но у вас еще есть время запрыгнуть в наш нейроэкспресс.
Вы получите вечный доступ к записям и доступ в закрытый чат с очень классным комьюнити нейроэнтузиастов. Общение, обмен опытом, нетворкинг.
Специальный гость курса "ИИ-кино 2.0" — Валерия Гай-Германика. Валерия будет рассказывать, как работать с эмоцией, где искать настоящие истории, почему важна правда в кадре — и как ИИ может стать новым инструментом режиссера, не заменяя, а усиливая голос автора.
Присоединяйтесь к курсу. Это будет 18 эфиров (все участники получат записи с бессрочным доступом) не только по генерации видео, но также по сторителлингу, написанию сценариев, созданию рекламы и не только.
🤘 Программа и регистрация ЗДЕСЬ
Если у вас остались вопросы — напишите мне в личку, и я обязателньо отвечу.
Этика и ИИ: Как найти баланс? Веду крутой паблик-ток, приходите будет интересно
Внедрение ИИ стало настолько повсеместным, что многие стали задаваться вопросами этики и рамок, ограничивающих использование нейросетей.
Как найти разумный баланс и избежать рисков? Где грань между творчеством человека и коллективным разумом?
Об этом мы поговорим на встрече с Евгением Черешневым — визионером, экспертом в области ИИ, дата-менеджмента, кибербезопасности, автором книги «Форма жизни №4: Как остаться человеком в эпоху расцвета искусственного интеллекта».
Вести встречу буду я, Егор Аполлонов — автор телеграм-канала «Нейронутые», основатель нейро-креативного агентства Aigency.
Организатор встречи - издательство "Альпина Паблишер"
Когда: 12 апреля, 18:00 мск
Где: Гостиный двор
Внедрение ИИ стало настолько повсеместным, что многие стали задаваться вопросами этики и рамок, ограничивающих использование нейросетей.
Как найти разумный баланс и избежать рисков? Где грань между творчеством человека и коллективным разумом?
Об этом мы поговорим на встрече с Евгением Черешневым — визионером, экспертом в области ИИ, дата-менеджмента, кибербезопасности, автором книги «Форма жизни №4: Как остаться человеком в эпоху расцвета искусственного интеллекта».
Вести встречу буду я, Егор Аполлонов — автор телеграм-канала «Нейронутые», основатель нейро-креативного агентства Aigency.
Организатор встречи - издательство "Альпина Паблишер"
Когда: 12 апреля, 18:00 мск
Где: Гостиный двор
Media is too big
VIEW IN TELEGRAM
Обещал полную версию девчонок в бикини. Держите. Звук погромче.
Что бы это могло быть? 💥
Что бы это могло быть? 💥
Новая яркая премьера в мире ИИ-видео: Higgsfield AI — платформа, которая помогает создавать стильные, кинематографичные видео с реальным контролем движения камеры.
Больше не нужно мучиться с промптами — здесь все устроено просто: выбираешь нужный стиль (от «полетов камеры» до драматичных зумов), загружаешь изображение или описываешь сцену, и за минуты получаешь готовый видеоролик, будто снятый на крутое оборудование.
Higgsfield AI сочетает в себе простоту мобильного приложения и мощь настоящей режиссуры — теперь даже без съемочной группы вы можете воплощать смелые идеи в формате настоящего кино.
Платформа Higgsfield AI предлагает более 50 кинематографических предустановок движения камеры для генерации видео, устраняя необходимость в сложных промптах и обеспечивая более точный контроль над созданием видеоконтента. Это позволяет пользователям создавать видеоролики с профессиональным качеством, используя разнообразные стили и эффекты, такие как «полет пули», «супер-долли» и «робо-рука», что ранее было доступно только в высокобюджетных кинопроизводствах
Минусы: 1. всего 5 секунд на каждый кадр. 2. Нет HD. Но возможно все это изменится в будущем. Покупаем подписку по этой ссылке. Там же очень много примеров.
p.s. Основатели Higgsfield AI — выпускник МФТИ Александр Машрабов, ранее возглавлявший отдел генеративного ИИ в Snap Inc., и исследователь ИИ из Казахстана Ерзат Дулат. В апреле 2024 года команда привлекла $8 млн начального финансирования от Menlo Ventures и других инвесторов. Их предыдущий стартап AI Factory был приобретён Snap в 2019 году за $166 млн.
Больше не нужно мучиться с промптами — здесь все устроено просто: выбираешь нужный стиль (от «полетов камеры» до драматичных зумов), загружаешь изображение или описываешь сцену, и за минуты получаешь готовый видеоролик, будто снятый на крутое оборудование.
Higgsfield AI сочетает в себе простоту мобильного приложения и мощь настоящей режиссуры — теперь даже без съемочной группы вы можете воплощать смелые идеи в формате настоящего кино.
Платформа Higgsfield AI предлагает более 50 кинематографических предустановок движения камеры для генерации видео, устраняя необходимость в сложных промптах и обеспечивая более точный контроль над созданием видеоконтента. Это позволяет пользователям создавать видеоролики с профессиональным качеством, используя разнообразные стили и эффекты, такие как «полет пули», «супер-долли» и «робо-рука», что ранее было доступно только в высокобюджетных кинопроизводствах
Минусы: 1. всего 5 секунд на каждый кадр. 2. Нет HD. Но возможно все это изменится в будущем. Покупаем подписку по этой ссылке. Там же очень много примеров.
p.s. Основатели Higgsfield AI — выпускник МФТИ Александр Машрабов, ранее возглавлявший отдел генеративного ИИ в Snap Inc., и исследователь ИИ из Казахстана Ерзат Дулат. В апреле 2024 года команда привлекла $8 млн начального финансирования от Menlo Ventures и других инвесторов. Их предыдущий стартап AI Factory был приобретён Snap в 2019 году за $166 млн.
Higgsfield
The ultimate AI-powered camera control for creators by creators
Сервис OmniHuman по-тихому и без лишнего шума заехал в Dreamina.
Сделал генерации, чтобы показать липсинг и анимацию — делюсь как есть. Картинки делал в Reve.
Взял голоса "из коробки" (формально это ElevenLabs). Никак не обрабатывал и не работал с интоннацией.
Обратите внимание: когда в кадре два спикера система делает липсинг обоим. Криповенько. При этом довольно неплохо справляется с липсингом лица, которое совсем не смотрит в кадр.
Стоит дорого. Ждать долго (сервера перегреты, что будет потом — пока неясно). Также там есть опция генерации видео — я поставил text-to-video (на платном тарифе) и жду уже 45 минут 5-секундный видос.
UPD: 5-секундное видео, запущенное в генерацию по текстовому промту в 19:33 мск все еще генерится. У меня, повторюсь., оплаченный тариф и про-версия. Техническое сообщение такое: "Слишком много людей генерят видео. Это может занять время". Не за это мы платили деньги, товарищи 😂
Сделал генерации, чтобы показать липсинг и анимацию — делюсь как есть. Картинки делал в Reve.
Взял голоса "из коробки" (формально это ElevenLabs). Никак не обрабатывал и не работал с интоннацией.
Обратите внимание: когда в кадре два спикера система делает липсинг обоим. Криповенько. При этом довольно неплохо справляется с липсингом лица, которое совсем не смотрит в кадр.
Стоит дорого. Ждать долго (сервера перегреты, что будет потом — пока неясно). Также там есть опция генерации видео — я поставил text-to-video (на платном тарифе) и жду уже 45 минут 5-секундный видос.
UPD: 5-секундное видео, запущенное в генерацию по текстовому промту в 19:33 мск все еще генерится. У меня, повторюсь., оплаченный тариф и про-версия. Техническое сообщение такое: "Слишком много людей генерят видео. Это может занять время". Не за это мы платили деньги, товарищи 😂
Прочел интересную статью Futurism: ChatGPT Dependence Is Real.
Кратко:
Вот 10 тревожных фактов из этого материала:
1. Да, вы не одни — люди реально «подсаживаются» на ChatGPT. Исследование MIT выявило: активные пользователи начинают зависеть от ИИ-общения так же, как от соцсетей или видеоигр.
2. Зависимость не в шутку: появляются симптомы отмены. Пользователи чувствуют тревожность и раздражение, если не могут использовать ChatGPT — классика поведенческой зависимости.
3. В зоне риска — не те, кто болтает о погоде, а те, кто работает. Чем больше человек использует ИИ для продуктивных целей (решение задач, советов, творчества), тем выше шанс зависимости.
4. Вместо уверенности — цифровая «костыльность». Чем чаще вы спрашиваете у бота, как поступить, тем меньше верите себе. Уровень внутренней автономии падает.
5. «Ты меня понимаешь» — эффект эмпатии, которого... нет. Пользователи часто приписывают ChatGPT человеческие качества, ощущают «поддержку», и это усиливает эмоциональную привязку.
6. Голосовой режим усиливает эффект «живого общения». Сначала кажется, что голосовой чат улучшает настроение, но в долгосрочной перспективе — усиливает зависимость.
7. ChatGPT заменяет внутренний диалог. Люди все реже «разговаривают сами с собой» и все чаще перекладывают эту функцию на ИИ — сдвиг в базовых когнитивных механизмах.
8. Зависимость — не баг, а (для разработчиков) фича. Чем дольше вы в боте — тем чаще возвращаетесь. Это выгодно технологическим компаниям, и этический вопрос остается открытым.
9. Массовое одиночество + умный собеседник = цифровая ловушка. Социальная изоляция усиливает эмоциональную связь с ChatGPT, особенно среди молодежи и фрилансеров.
10. Вывод исследователей: нужно тормозить. Разработчики и пользователи должны осознанно контролировать использование ИИ, иначе последствия могут быть масштабнее, чем от TikTok.
А теперь напишите в комментариях, сколько пунктов из 10 вы собрали, читая этот материал.
Кратко:
исследование, проведенное MIT Media Lab, выявило тревожную тенденцию: активные пользователи ChatGPT начинают испытывать эмоциональную зависимость от чат-бота, проявляющуюся в признаках, характерных для зависимости — таких как навязчивое использование, симптомы отмены, потеря контроля и изменение настроения.
Вот 10 тревожных фактов из этого материала:
1. Да, вы не одни — люди реально «подсаживаются» на ChatGPT. Исследование MIT выявило: активные пользователи начинают зависеть от ИИ-общения так же, как от соцсетей или видеоигр.
2. Зависимость не в шутку: появляются симптомы отмены. Пользователи чувствуют тревожность и раздражение, если не могут использовать ChatGPT — классика поведенческой зависимости.
3. В зоне риска — не те, кто болтает о погоде, а те, кто работает. Чем больше человек использует ИИ для продуктивных целей (решение задач, советов, творчества), тем выше шанс зависимости.
4. Вместо уверенности — цифровая «костыльность». Чем чаще вы спрашиваете у бота, как поступить, тем меньше верите себе. Уровень внутренней автономии падает.
5. «Ты меня понимаешь» — эффект эмпатии, которого... нет. Пользователи часто приписывают ChatGPT человеческие качества, ощущают «поддержку», и это усиливает эмоциональную привязку.
6. Голосовой режим усиливает эффект «живого общения». Сначала кажется, что голосовой чат улучшает настроение, но в долгосрочной перспективе — усиливает зависимость.
7. ChatGPT заменяет внутренний диалог. Люди все реже «разговаривают сами с собой» и все чаще перекладывают эту функцию на ИИ — сдвиг в базовых когнитивных механизмах.
8. Зависимость — не баг, а (для разработчиков) фича. Чем дольше вы в боте — тем чаще возвращаетесь. Это выгодно технологическим компаниям, и этический вопрос остается открытым.
9. Массовое одиночество + умный собеседник = цифровая ловушка. Социальная изоляция усиливает эмоциональную связь с ChatGPT, особенно среди молодежи и фрилансеров.
10. Вывод исследователей: нужно тормозить. Разработчики и пользователи должны осознанно контролировать использование ИИ, иначе последствия могут быть масштабнее, чем от TikTok.
А теперь напишите в комментариях, сколько пунктов из 10 вы собрали, читая этот материал.
Media is too big
VIEW IN TELEGRAM
В день космонавтики я, конечно же, опубликую видео о Юре Гагарине. Делюсь проектом, который я делал для Positive Hack Days. Оцифровал, отреставрировал и оживил архивную документальную фотохронику — как в проекте "Кино" с Виктором Цоем, который вам так понравился.
«Тест на доверие». Текст — Максим Добророднов. Читает автор. Видео показывалось в «Лужниках» на 8-метровом экране — я делал AI-апскейл до 4К.
«Тест на доверие». Текст — Максим Добророднов. Читает автор. Видео показывалось в «Лужниках» на 8-метровом экране — я делал AI-апскейл до 4К.
Media is too big
VIEW IN TELEGRAM
А что у нас с другой стороны космоса?
This media is not supported in your browser
VIEW IN TELEGRAM
Kling 2.0 представят уже завтра. Судя по демо — это будет очень круто. Подробности последуют.
Ну и давайте сделаем самый первый тест Kling 2.0
На тарифе $32 вы получаете в Kling 3000 кредитов, и можете сгенерить 30 видео в версии 2.0.
Таким образом стоимость 1 видео составляет $1.06 или 88 рублей. А значит — теперь официально — Kling стал дороже Veo2. Но качество, которое дает Veo2 пока, по моим субъективным тестам и наблюдениям, недостижимо.
Хотя в новой версии есть ряд интересных штук (о них я расскажу позже, когда изучу все подробно).
Экспресс-тест — сгенерим видео с одинаковым промтом и сравним результаты: Слева (вид со спины) — Kling. Справа — Veo2.
Интересный факт: себестоимость этого поста —150 рублей :-)
На тарифе $32 вы получаете в Kling 3000 кредитов, и можете сгенерить 30 видео в версии 2.0.
Таким образом стоимость 1 видео составляет $1.06 или 88 рублей. А значит — теперь официально — Kling стал дороже Veo2. Но качество, которое дает Veo2 пока, по моим субъективным тестам и наблюдениям, недостижимо.
Хотя в новой версии есть ряд интересных штук (о них я расскажу позже, когда изучу все подробно).
Экспресс-тест — сгенерим видео с одинаковым промтом и сравним результаты: Слева (вид со спины) — Kling. Справа — Veo2.
Интересный факт: себестоимость этого поста —150 рублей :-)
This media is not supported in your browser
VIEW IN TELEGRAM
А вот как Kling 2.0 отрабатывает девчонок в бикини. Тут можете посмотреть много таких красавиц (но там не только Kling, а сложный workflow).
И еще — чтобы вы сразу поняли все: за 100 кредитов вы получаете видео в качестве 720p. Никакого вам Full HD за эти деньги.
Бухгалтерия: еще минус 88 рублей за этот тест 😂 Тут подойдет слоган — 1 генерация по цене чашки кофе.
И еще — чтобы вы сразу поняли все: за 100 кредитов вы получаете видео в качестве 720p. Никакого вам Full HD за эти деньги.
Бухгалтерия: еще минус 88 рублей за этот тест 😂 Тут подойдет слоган — 1 генерация по цене чашки кофе.
Накатал огромный обзор Kling 2.0 и нагенерил сравнений Kling 2.0 и Veo2.
Конечно же, без легкой атлетики не обошлось.
Читайте и смотрите видео-примеры по этой ссылке.
p.s. Поставьте плиз лайки на сайте VC.ru. Это поможет материалу.
Конечно же, без легкой атлетики не обошлось.
Читайте и смотрите видео-примеры по этой ссылке.
p.s. Поставьте плиз лайки на сайте VC.ru. Это поможет материалу.
vc.ru
Kling AI 2.0: Революция в AI-видео или грабеж креаторов? Новые возможности, шокирующие цены и ярость сообщества (самый полный обзор…
Егор Апполонов AI 15 апр
This media is not supported in your browser
VIEW IN TELEGRAM
Что-то будет. Новая захватывающая история на "Нейронутых". Скоро.
Но сегодня у меня ДР, так что работать я не буду 🍾🥂🍾
Но сегодня у меня ДР, так что работать я не буду 🍾🥂🍾