This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs (лучше быть в США) - теперь агрегатор нейросетей 🔥 Это уже не просто площадка для работы с аудио/ голосом, там теперь фото и видеогенераторы, плюс в аудио появились и другие модели, помимо собственных
🪼 Модели:
🪼 для изображений Nano Banana, Flux Kontext, Wan и Seedream
🪼 для видео Veo 3.1, Sora 2, Kling 2.5, Wan 2.5 или Seedance 1 Pro.
🪼 апскейл с помощью Topaz до 4k
🪼 есть экспорт Studio. В Studio можно монтировать видео - накладывать реалистичные голоса, звуковые эффекты и музыку, обрезать видео, добавлять субтитры и накладывать липсинк
Как-то я упустила Studio 3.0 от ElevenLabs, вскоре исправлю свою оплошность и расскажу о новинках👌
В общем, все эти модели для видео/изображений/апскейл доступны только на платных планах, а не на 10к кредитов, которые ElevenLabs ежемесячно отсыпает на свои аудио-примочки. Если что, Видео там сгенерить стоит примерно 3к кредитов😉
@NeuralProfit
Как-то я упустила Studio 3.0 от ElevenLabs, вскоре исправлю свою оплошность и расскажу о новинках
В общем, все эти модели для видео/изображений/апскейл доступны только на платных планах, а не на 10к кредитов, которые ElevenLabs ежемесячно отсыпает на свои аудио-примочки. Если что, Видео там сгенерить стоит примерно 3к кредитов
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19👍10🔥7🎉2⚡1
Media is too big
VIEW IN TELEGRAM
Нейросети для монтажа вирусных роликов
Помните про Agent Opus (на видео) - это ИИ-агент, который сам собирает ролики. Он еще ожидается, но у них есть основной сервис для нарезки и монтажа клипов- OpusClip🔥 его специально обучали на трендах соцсетей, чтобы создавать вирусные видео. Есть функция Highlight Detection - ИИ сканирует видео, чтобы найти фразы с цепляющим потенциалом или эмоциональным воздействием, что сразу захватит внимание. 🪼 Из минусов, нужно быть зарубежом.
🪼 А так, бесплатно в месяц дается 60 минут для обработки видео, причем скачать дают в качестве 1080р. Плюс, сервис сам адаптирует видео и постит/ планирует на разных платформах, делает автосубтитры или анимированные субтитры с классными шрифтами и эмоджи, но с вотермарками. С другой стороны, подобные сервисы бесплатно тоже скачивают с вотермаркой, но качество выдают лишь в 720р.
OpusClip упрощает задачу, сам за вас посмотрит подкаст или вебинар, предскажет какие фрагменты с наибольшей вероятностью покажут хорошие результаты на разных платформах, очень хорош для тех, кто продвигается короткими видео, так как создает клипы с динамическими субтитрами, кадрированием, темпом и макетами, соответствующими стилю вирусных видео.
Есть похожие сервисы для нарезки, но без явного Highlight Detection:
🪼 Repurpose.io - нарежет видео, преобразует и опубликует на разных платформах + форматирование подписей для каждой соц.сети, но выбирать интересные моменты лучше самому вручную) Бесплатно можно обработать 10 видео без привязки карты, а дальше тарифы от 35$ в месяц с 14-дневным пробным периодом.
🪼 VEED - это даже больше видеоредактор в браузере, а не только нарезка видео/ изменение размера видео для разных площадок. Его я рекомендую для постпродакшна, особенно если вы не умеете работать в более сложных видеоредакторах или не хотите скачивать CapCut. У вас есть необработанное видео, вебинар, подкаст, запись Zoom или скринкаст, VEED его “отполирует” и придаст более профессиональный вид. Еще и сделает автоматический перевод субтитров и красиво их оформит. Для проф использования - можно создать многоразовые шаблоны - “бренд-комплекты” для соблюдения единого стиля видеороликов (стиль, шрифты, цвета, макет) Бесплатно нет лимитов на количество роликов, но есть лимиты на длительность (до 10 минут) и есть водяной знак + доступен базовый видео редактор, экспорт видео в 720р.
@NeuralProfit
Помните про Agent Opus (на видео) - это ИИ-агент, который сам собирает ролики. Он еще ожидается, но у них есть основной сервис для нарезки и монтажа клипов- OpusClip
OpusClip упрощает задачу, сам за вас посмотрит подкаст или вебинар, предскажет какие фрагменты с наибольшей вероятностью покажут хорошие результаты на разных платформах, очень хорош для тех, кто продвигается короткими видео, так как создает клипы с динамическими субтитрами, кадрированием, темпом и макетами, соответствующими стилю вирусных видео.
Есть похожие сервисы для нарезки, но без явного Highlight Detection:
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23👍18🔥9🙏4⚡1❤🔥1🗿1
Media is too big
VIEW IN TELEGRAM
Elevenlabs запустили Маркетплейс голосов - Iconic Voice Marketplace, где можно заплатить и использовать легально голос знаменитости для коммерческих проектов, а он будет получать отчисления. Авторы голосов получают деньги за каждое использование голоса (расчет по количеству символов). На Iconic Marketplace нужно отправить заявку, описать проект, а правообладатель сам решает, одобрять или нет.
На видеоролике актер Майкл Кейн (92 года), представляет Iconic Voice Marketplace. Вот кстати и сама коллекция голосов. Там есть кстати и Опенгеймер – отдельный голос среди исторических фигур (J. Robert Oppenheimer™). Вы помните, как я делала клон голоса Гарика Харламова в ElevenLabs, когда то еще можно было)) Получилось неотличимо - вот пост. Но лавочку быстро прикрыли, так как знаменитость может вполне официально “продать” свой голос и получать роялти)
Так что голос, это вполне себе актив) и вы можете озвучить официально голосом знаменитости свой коммерческий проект😉
@NeuralProfit
На видеоролике актер Майкл Кейн (92 года), представляет Iconic Voice Marketplace. Вот кстати и сама коллекция голосов. Там есть кстати и Опенгеймер – отдельный голос среди исторических фигур (J. Robert Oppenheimer™). Вы помните, как я делала клон голоса Гарика Харламова в ElevenLabs, когда то еще можно было)) Получилось неотличимо - вот пост. Но лавочку быстро прикрыли, так как знаменитость может вполне официально “продать” свой голос и получать роялти)
Так что голос, это вполне себе актив) и вы можете озвучить официально голосом знаменитости свой коммерческий проект
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18❤10👍7🤩3👎1
Media is too big
VIEW IN TELEGRAM
Сравнение Nano Banana Pro и FLUX.2 Pro. Мой обзор
Вышел FLUX.2, который сразу стали сравнивать с Nano Banana Pro. Я решила составить свое собственное мнение и сравнила эти две модели.
FLUX.2 пока представлен в Playground двумя моделями: FLUX.2 pro - максимум качества, и FLUX.2 flex -соотношение скорости и качества. И так же уже есть модель FLUX.2 dev - (32B параметров) на Huggingface и веса доступны там же.
🪼 Естественно, я решила затестить самую качественную модель - FLUX.2 pro и сравнить ее с Nano Banana Pro на одинаковой задаче. В прошлый раз я загрузила свое изображение и написала запрос как обычный пользователь, без уточнений. Ведь мы знаем, что в Nano Banana Pro встроен Gemini 3 Pro+поисковик Google. То есть, Nano Banana Pro способна думать над сложным запросом, и в случае чего, поискать инфу в интернете. Поэтому естественно я осталась довольна результатом.
🪼 Ну и раз FLUX.2 заявлен “убийцей Nano Banana Pro” - пусть соответствует, поэтому я сделала тот же самый запрос. И знаете что? А неплохо! Лицо передал хорошо в 3 случаях, и сразу сгенерил реалистичные картинки и 1 мультяшную. А Nano Banana Pro передала стилистику мультика The Simpsons, в том числе перенесла и на меня. Да и лицо лучше передал FLUX.2.
🪼 А Nano Banana Pro намного лучше справляется с текстом, особенно с русским. Тут Flux 2 пролетает, и конечно, особенно если текста много, даже на английском, пишет с ошибками. Все-таки для инфографики лучше Nano Banana Pro.
🪼 Так же, Nano Banana Pro выдала мне картинку в 6Mb -это очень хороший результат, FLUX.2 выдала аналогичные картинки в 3Mb, что в 2 раза меньше. Для примера, Grok выдает вообще 100-200Kb. А те, кто занимается продажей картинок на стоках, знают, что порог входа от 15Mb. И если 6Mb легко расшариваются до 15Mb в Canva Pro, то из условных 150Kb сделать 15Mb задача сложнее.
🪼 Если затрагивать референсы, то в Nano Banana Pro можно загрузить 14 изображений, FLUX.2 принимает 10
🪼 Оба сервиса уже обзавелись официальными гайдами: Гайд для FLUX.2 и Гайд для Nano Banana Pro
🪼 В Playground доступно 50 кредитов (1 кредит = 1 изображение), в настройках можно настроить, чтобы выдавал от 1 до 4 изображений, по умолчанию выдает 4, учтите. После расхода 50 кредитов продолжить можно по API, то есть платно от 10$ за 1000 кредитов. Nano Banana Pro в бесплатном тарифе Gemini – до 3 изображений в день, после автоматически переключает на обычный Nano Banana (у него в фри-тарифе лимит до 100 изображений в день).
Ну что, ждем обновленный генератор/редактор изображений от OpenAI😁
@NeuralProfit
Вышел FLUX.2, который сразу стали сравнивать с Nano Banana Pro. Я решила составить свое собственное мнение и сравнила эти две модели.
FLUX.2 пока представлен в Playground двумя моделями: FLUX.2 pro - максимум качества, и FLUX.2 flex -соотношение скорости и качества. И так же уже есть модель FLUX.2 dev - (32B параметров) на Huggingface и веса доступны там же.
Ну что, ждем обновленный генератор/редактор изображений от OpenAI
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥21❤14⚡5👍2👎1
Z-Image vs Midjourney.pdf
20.8 MB
Z-Image -китайский генератор изобаржений от AliBaba представлен на fal.ai - там турбо режим, генерит за секунды, бесплатно сделала 6 картинок. На HuggingFace подольше и побольше + там же веса. На сайтах генерит в webp примерно 20-100 kb.
Z-Image хорош тем, что подойдет на 16Гб оперативки, там 6B параметров. Я его скачивать не стала, так как я работаю более творчески в Midjourney, там изобретаю свои стили со своими тонкими настройками, чтоб не как у других. MJ в умелых руках может тоже самое, что и Nano Banana Pro и Flux.2, за исключением текста. Зато дает больше возможностей выделиться из скучных визуалов, именно с ней я и решила сравнить китайца) Погоняла я их на разных промптах - они легко копируются из pdf
В Z-Image мне не хватило резкости, деталей и креатива, тем более на контрасте с Nano Banana Pro и Flux.2, про MJ я вообще молчу. Зато в отличие от Midjourney и компашки может генерить 18+, по крайней мере мне спокойно сгенерировал голую женщину, идущую по улице без купюр😳 на HuggingFace 😬 Прикреплю в комменты 👇🏻 Да, кстати, кто хочет качественно освоить Midjourney - велком ко мне на Обучение Midjourney 👍🏻
@NeuralProfit
Z-Image хорош тем, что подойдет на 16Гб оперативки, там 6B параметров. Я его скачивать не стала, так как я работаю более творчески в Midjourney, там изобретаю свои стили со своими тонкими настройками, чтоб не как у других. MJ в умелых руках может тоже самое, что и Nano Banana Pro и Flux.2, за исключением текста. Зато дает больше возможностей выделиться из скучных визуалов, именно с ней я и решила сравнить китайца) Погоняла я их на разных промптах - они легко копируются из pdf
В Z-Image мне не хватило резкости, деталей и креатива, тем более на контрасте с Nano Banana Pro и Flux.2, про MJ я вообще молчу. Зато в отличие от Midjourney и компашки может генерить 18+, по крайней мере мне спокойно сгенерировал голую женщину, идущую по улице без купюр
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤10✍6👍6👎2👌1🤣1🗿1
Bob Translate - заменитель DeepL для перевода и оптического распознавания текста (OCR)
Если вас так же как и меня утомила эта возьня с випиэн в DeepL-переводчике, то поздравляю! Но только тех, у кого macOS. Есть агрегатор переводчик - Bob Translate, ставится на комп)🔥 Он уже дико крут за-за ПЛАГИНОВ ❗️ 👇🏻
🪼 Плагины переводчиков:
⁃ может использовать разные движки для перевода - 30+ (Google Translator, DeepL, OpenAI, Microsoft Translator и др.) Так что это это не заменитель DeepL, а, наоборот, может использовать DeepL (и другие модели).
⁃ еще там много китайских моделей-переводчиков, многие из них дают бесплатные лимиты выше, чем DeepL/Google, поэтому Китай часто использует Bob как основной инструмент.
🪼 Плагины OCR (распознавание текста на картинках, сканах и PDF)
🔥 Можно ставить дополнительно плагины для таблиц, рукописного текста, сканов.
🪼 Плагины для словарей и лингвистики - умеет переводить или править текст со скриншота, картинок/pdf
🪼 Плагины можно скачать отсюда https://bobplugin.ripperhe.com/ и легко установить в само приложение - там сотни дополнений: переводчики, OCR, словари, интеграции.
Для тех, кто как и я, не сразу понял, где переводчик, прикладываю скрины, еще и где плагины спецом обвела 👌
@NeuralProfit
Если вас так же как и меня утомила эта возьня с випиэн в DeepL-переводчике, то поздравляю! Но только тех, у кого macOS. Есть агрегатор переводчик - Bob Translate, ставится на комп)
⁃ может использовать разные движки для перевода - 30+ (Google Translator, DeepL, OpenAI, Microsoft Translator и др.) Так что это это не заменитель DeepL, а, наоборот, может использовать DeepL (и другие модели).
⁃ еще там много китайских моделей-переводчиков, многие из них дают бесплатные лимиты выше, чем DeepL/Google, поэтому Китай часто использует Bob как основной инструмент.
• встроенный macOS OCR
• PaddleOCR
• Google Vision OCR
• Tencent OCR
• Baidu OCR
🔥 Можно ставить дополнительно плагины для таблиц, рукописного текста, сканов.
• Oxford (через API)
• Cambridge
• Linguee
• Youdao
• Eudic
• Merriam-Webster
• Urban Dictionary
• грамматические подсказки
По ценам: Есть бесплатная версия и есть Pro навсегда:
Сначала дается на пробу 14-дневная Pro-версия - после окончания срока автоматического списания не будет! Просто переключит на бесплатный тариф, в котором доступен перевод: до 15 раз в день и OCR (распознавание текста на изображениях) до 10 раз в день.
Платная же версия Pro покупается один раз за 799 ₽ и дает пожизненный доступ, в итоге перевод- безлимитно, OCR - безлимитно. В версии Pro помимо встроенных сервисов, надо будет ввести свои API-ключи для других сервисов
Для тех, кто как и я, не сразу понял, где переводчик, прикладываю скрины, еще и где плагины спецом обвела 👌
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥15❤11⚡6👍6👎3🔥1🙏1
На GitHub выложили Подборку крутых промптов для Nano Banana Pro с иллюстрациями. Они отлично демонстрируют возможности этого крутого генератора/редактора изображений.
Там собраны необычные кейсы: можно попросить сгенерировать помимо реалистичных и деловых фото, качественную инфографику/план дизайна/маркетинговые промо/обложки для YouTube/изображения с разными людьми по приложенным фото; редактировать фото/показать человека в шести разных возрастах. Там даже есть, как преобразовать наброски на доске в четкие векторные презентации в стиле McKinsey.
@NeuralProfit
Там собраны необычные кейсы: можно попросить сгенерировать помимо реалистичных и деловых фото, качественную инфографику/план дизайна/маркетинговые промо/обложки для YouTube/изображения с разными людьми по приложенным фото; редактировать фото/показать человека в шести разных возрастах. Там даже есть, как преобразовать наброски на доске в четкие векторные презентации в стиле McKinsey.
@NeuralProfit
🔥16❤15👍10
Бесплатные умные LLM на уровне GPT-5 и Gemini 3 Pro
Вышли DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - новые флагманские open-source-модели от китайской DeepSeek. По техотчету команды и первым обзорам, базовая V3.2 по качеству рассуждений держится примерно на уровне GPT-5, а старшая V3.2-Speciale в сложных задачах по математике и информатике местами обгоняет GPT-5 и выходит на уровень Gemini 3 Pro (золото на задачах IMO/IOI и других олимпиад)
🪼 Базовую DeepSeek-V3.2 уже можно бесплатно попробовать на сайте и через официальное приложение - Скачать из 🛒 AppStore из 🛒 GooglePlay. Более умную V3.2-Speciale пока дают только через API, но в DeepSeek подчеркивают, что это временно до середины декабря, что потом - станет ли он платным, пока не понятно 🤷🏻♀️
Мне нравится DeepSeek тем, что он бесплатный и приложение у него удобное без випиэн и доступно в РФ. Чего лично мне не хватает - мультимодальности: да, туда можно загрузить файлы/изображения, но вот генерить изображения или даже видео (привет Qwen 🙋🏻♀️), пока не может. Все-таки, на фоне остальных LLM, DeepSeek и Claude остаются про код и текст, но не про визуал.
@NeuralProfit
Вышли DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - новые флагманские open-source-модели от китайской DeepSeek. По техотчету команды и первым обзорам, базовая V3.2 по качеству рассуждений держится примерно на уровне GPT-5, а старшая V3.2-Speciale в сложных задачах по математике и информатике местами обгоняет GPT-5 и выходит на уровень Gemini 3 Pro (золото на задачах IMO/IOI и других олимпиад)
Мне нравится DeepSeek тем, что он бесплатный и приложение у него удобное без випиэн и доступно в РФ. Чего лично мне не хватает - мультимодальности: да, туда можно загрузить файлы/изображения, но вот генерить изображения или даже видео (привет Qwen 🙋🏻♀️), пока не может. Все-таки, на фоне остальных LLM, DeepSeek и Claude остаются про код и текст, но не про визуал.
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤8🤝4👍3⚡1
Чем отличается вайб-кодинг в разных сервисах?
Давайте с вами разберемся, чем вайб-кодинг отличается на разных платформах, мы их регулярно упоминаем, пора свести картинку воедино.
Vibe Coding (Вайб-кодинг) - это когда вы описываете цель простым языком, а ИИ берет на себя рутину: проектирует структуру, пишет код, склеивает части и показывает результат. Вы работаете больше как арт-директор/продакт, а не как человек, который сам строчит каждую строку. Есть разные платформы для вайб-кодинга.
🪼 Zoer, Lovable, Bolt, Google AI Studio (Build), Google (Opal) - это vibe-coding-платформы, где из промпта сразу получаете продукт - прототип/лендинг/сайт/приложение, иногда с бекендом, UI и базой данных. Порог входа низкий - подойдет любой человек без тех бекграунда.
Я бы сюда же отнесла Genspark AI Developer 2.0 – он по одному промпту собирает нативные мобильные приложения. А вот Manus – уже с натяжкой, это скорее универсальный ИИ-агент, который по тексту запускает цепочки действий и автоматизирует процессы, а не чистый генератор приложений.
🪼 А, например, Cursor тоже связан с философией vibe-coding, но с нюансами. В отличие от предыдущих платформ без навыков программирования, Cursor рассчитан на разработчиков с технической базой. Это не no-code: вы остаетесь в IDE, контролируете код. Но много привычных процессов делаются на автомате через агентов, они планируют, лезут в кодовую базу, правят файлы, запускают команды ии выполняют длинные цепочки действий. Так что просто ускоряет разработку.
🪼 Далее чуть посложнее VS Code - в нем vibe-coding реализуется только через внешние расширения. Ключевая связка - GitHub Copilot с Agent mode и набором агентов. Они пошагово выполняют задачи: анализируют проект, строят план, правят файлы, запускают тесты и по кругу дорабатывают решение. Но это по-прежнему классическая IDE с плагинами: vibe-функции здесь как надстройки, которые можно включить или выключить.
🪼 А еще есть самостоятельные ИИ-агенты типа Devin или Max, которые идут еще дальше и позиционируются как почти полностью автономные ИИ-разработчики, которые могут брать тикеты, планировать работу, писать и запускать код, тестировать и доводить задачу до pull-request’а или деплоя с минимальным участием человека. Такие агенты работают в своем окружении: как минимум Devin официально имеет встроенный shell, редактор кода и браузер в песочнице, и может шаг за шагом строить и дорабатывать проект. Человеку остается формулировать цель и проверять результат, а детали реализации ИИ берет на себя.
🪼 Отдельно идет GPT-5.1-Codex-Max - специальная код-модель для Codex, заточенная под длинные агентные сценарии (CLI / IDE / облако). Это не ИИ-разработчик как Devin или Max, а мозг, который позволяет таким агентам долго работать над задачей: планировать шаги, сжимать контекст, править код, тестировать и доводить задачу до результата почти без ручной рутины со стороны человека.
🪼 Для вашего удобства я решила перечислить свои посты про сервисы выше
🪼 Про Zoer
🪼 Про Lovable и еще
🪼 Про Build в Google AI Studio
🪼 Про Genspark AI Developer 2.0 и про создание своих ИИ Агентов - пост
🪼 Про Devin
🪼 Про Max
🪼 Про GPT-5.1-Codex-Max
@NeuralProfit
Давайте с вами разберемся, чем вайб-кодинг отличается на разных платформах, мы их регулярно упоминаем, пора свести картинку воедино.
Vibe Coding (Вайб-кодинг) - это когда вы описываете цель простым языком, а ИИ берет на себя рутину: проектирует структуру, пишет код, склеивает части и показывает результат. Вы работаете больше как арт-директор/продакт, а не как человек, который сам строчит каждую строку. Есть разные платформы для вайб-кодинга.
Я бы сюда же отнесла Genspark AI Developer 2.0 – он по одному промпту собирает нативные мобильные приложения. А вот Manus – уже с натяжкой, это скорее универсальный ИИ-агент, который по тексту запускает цепочки действий и автоматизирует процессы, а не чистый генератор приложений.
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥22👍13❤🔥10🙏2⚡1
Тайны хлыстовской веры.pdf
1 MB
Nano Banana Pro в генераторе презентаций Kimi Agentic Slides дают бесплатно на 48 часов, активировать фрипасс можно до 7 декабря.
За эти 48 часов модель сама собирает структуру, придумывает дизайн и оформление слайдов, а также пишет текст. Я проверила, как работает с русским языком, и с русской историей, а так же насколько прикладную инфу дает👇🏻
🪼 Сначала я решила проверить знание русской истории. Как мы помним, под капотом Nano Banana Pro мощная Gemini 3 Pro + поисковик Google, поэтому я сделала короткий и внятный запрос: 🔥
🪼 Дальше, я задала более прикладную задачу: попросила сгенерировать информацию о 😉
Результат можно скачать в pptx или zip-папкой с изображениями PNG. Получившиеся презентации я прикрепила и оставила на ваш суд👌
@NeuralProfit
За эти 48 часов модель сама собирает структуру, придумывает дизайн и оформление слайдов, а также пишет текст. Я проверила, как работает с русским языком, и с русской историей, а так же насколько прикладную инфу дает
Сделай презентацию про секту “Хлысты” на 6 слайдов”. Сначала накидывается план, затем на моих глазах начались генерация информативных слайдов на русском языке. Претензий ни к качеству текста, ни к качеству фактов у меня не возникло. Пока лучшее, что есть на рынке Матрице Маккинзи (GE/McKinsey) и успешных кейсах на 7 слайдов. За меня провели ресерч и снабдили качественной инфорграфикой с таблицами, графиками и в корпоративном стиле - можно смело транслировать слайды на оперативном собрании Результат можно скачать в pptx или zip-папкой с изображениями PNG. Получившиеся презентации я прикрепила и оставила на ваш суд
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥23👏11⚡5❤4
Media is too big
VIEW IN TELEGRAM
Новые продукты Kling -видео с нативным звуком, ИИ-видеоредактор и реалистичные аватары - мой обзор
Kling долго оставались в стороне, и вот наконец выкатили пачку крутых обновлений. Давайте разберемся👇🏻
🪼 Их видеогенератор я люблю давно, за то, что позволяет оживлять животных и реальных людей, когда другие капризничают (привет VEO-3.1 🙋🏻♀️). Более того, Kling всегда умел работать со сложными запросами лучше остальных. И вот наконец вышел Kling 2.6! Там появилась native audio. Казалось бы, ну видео со звуком для нас уже не ново 🤷🏻♀️ Но новый сам подход - модель генерирует видео и звук в одном проходе, а не сначала генерирует картинку, а потом уже накладывает звук. Так решается проблема рассинхрона. В одном проходе генерируется: речь (монологи, диалоги, озвучка за кадром, даже пение и рэп); фоновые шумы и атмосфера; звуковые эффекты (шаги, хлопки, шум улицы и т.д.).
- По сути, эти text-to-audio-visual и image-to-audio-visual - обычные text-to-video и image-to-video, но уже с интегрированным звуком.
- Пока это короткие клипы по 5–10 секунд в 1080p.
- Так же, как и в других видеогенераторах, в Kling 2.6 сейчас можно прописать диалоги, и действующие лица их произнесут.
- Kling 2.6 доступен через сайт, и в агрегаторах (Fal, Freepik, Higgsfield и др)
🪼 По части Avatar 2.0 - в липсинке HeyGen круче, как по мне, но жестикуляция прикольная и реалистичная. Лучше работает с изображениями и ненастоящими людьми. Мне в процессе движения слепил руки между собой 🫠 По части липсинка - если печатаете текст, понимает лучше. Я загрузила свой голос, и движения губ были не синхронными с текстом. Отмечу, что действительно, жестикуляция руками стала активнее) Можно генерировать ролики до ~5 минут за один прогон, удобно для лекций, продающих монологов и сторителлинга.
🪼 Kling VIDEO O1 (Omni One) - это уже своя видеостудия, единая система для генерации и редактирования видео. Поддерживает text-to-video, image-to-video, video-to-video, работу с ключевыми кадрами, комбинированные референсы и редактирование по тексту ("убери прохожих", "измени одежду", "измени стиль на pixar” и т.п). Но самое главное, сохраняет консистентность персонажей и объектов - это оно из ключевых преимуществ 🔥 Видео от 5 до 10 секунд.
🪼 А теперь мой опыт: Я решила заменить объект на уже готовом видео от Kling. Я загрузила через Elements фото очков Prada в высоком качестве, и попросила поменять очки на готовом видео со мной. Очень круто распознает по фото, делает разные ракурсы объекта, чтобы лучше воспроизвести в видео. Но у меня результат какой-то посредственный. Для сравнения, я просто загрузила фото очков как Image и так же попросила заменить - результат примерно одинаковый 💁🏻♀️ Но это пока мои первые впечатления, кто пробовал, как вам?
@NeuralProfit
Kling долго оставались в стороне, и вот наконец выкатили пачку крутых обновлений. Давайте разберемся
- По сути, эти text-to-audio-visual и image-to-audio-visual - обычные text-to-video и image-to-video, но уже с интегрированным звуком.
- Пока это короткие клипы по 5–10 секунд в 1080p.
- Так же, как и в других видеогенераторах, в Kling 2.6 сейчас можно прописать диалоги, и действующие лица их произнесут.
- Kling 2.6 доступен через сайт, и в агрегаторах (Fal, Freepik, Higgsfield и др)
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤13👍5⚡4
Еще Kling запустил новую версию модели генерации изображений - Omni Image 1.0 - причем, в ней можно и отредактировать загруженное изображение по текстовому запросу. Помимо стандартного набора “нейрофотошопа”, можно загрузить до 10 референсных изображений и собрать из этого одну сцену. Так что можно делать продуктовые фото, вариации, виртуальный try-on, баннеры, превьюшки для маркетинга.
Причем, у Kling уже есть руководства для использования для каждого из продуктов:
🪼 Руководство пользователя KLING O1
🪼 Руководство по Avatar 2.0
🪼 Руководство по KLING VIDEO 2.6
🪼 Руководство пользователя KLING VIDEO O1
@NeuralProfit
Причем, у Kling уже есть руководства для использования для каждого из продуктов:
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤11🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
Ребята, загибайте пальцы
1️⃣ GPT-5.1-Codex-Max сейчас можно попробовать в Cursor бесплатно до 11 декабря. Как раз кстати 💻 OpenAI выпустили Гайд по составлению промптов в GPT-5.1-Codex-Max. Гайд в первую очередь для тех, кто через API и встраивает модель в продукты, ботов, сервисы и агентные ассистенты, но его можно читать и как мануал по тому, как мыслит современный ИИ-агент для кода: структура промптов, планы, инструменты, длинные сессии и сжатие контекста.
* Кто не в курсе, GPT 5.1 Codex Max - это сейчас самая мощная кодерская модель в линейке OpenAI. Она сама планирует работу, вызывает инструменты и терминал, пишет и правит код и может автономно тянуть сложные задачи часами - в тестах OpenAI модель держала сессии дольше 24 часов.
2️⃣ Если вы гуманитарий, 🔍 Google тоже не остались в стороне и выпустили Адвент календарь по ИИ-Агентам. Все сделано так, чтобы было понятно всем: есть готовые команды и код, который можно скопировать и сразу гонять в Google Cloud.
🪼 С 1 по 25 декабря, каждый день выходят мини видеоуроки и гайды по разработке ИИ-агентов на Google Cloud с Gemini 3, ADK и Agent Engine. Всего за примерно 5 минут в день можно попробовать запускать агентов, вайбкодить и постепенно добраться до мультиагентных систем.
3️⃣ Anthropic тоже расщедрились и выложили 🖥 бесплатный курс по Claude Code. Курс состоит из 15 лекций ~1 час видео + квиз еще и сертификат в конце выдадут. Этот курс стартует с базового уровня (что такое Claude Code, как настроить, как работать с контекстом), но дальше быстро уходит в MCP, интеграцию с GitHub для автоматических ревью и обработки багов, hooks для добавления собственного поведения и проверок. По сути курс с базового переходит к среднему уровню, учтите это
Ну это просто праздник какой-то🥹
@NeuralProfit
* Кто не в курсе, GPT 5.1 Codex Max - это сейчас самая мощная кодерская модель в линейке OpenAI. Она сама планирует работу, вызывает инструменты и терминал, пишет и правит код и может автономно тянуть сложные задачи часами - в тестах OpenAI модель держала сессии дольше 24 часов.
Ну это просто праздник какой-то
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥27❤17👍9❤🔥2
Wikipedia сделала подробный гайд Как распознать ИИ тексты. Там на примерах разбирают типичные признаки: шаблонные формулировки, триггерные слова и другие маркеры, по которым редакторы вычисляют сгенерированный текст.
Полезная вещь, для тех, кто не хочет читать сгенерированный контент, так и для тех, кто хочет маскировать этот самый контент. Сам гайд доступен на 4 языках, в том числе и на русском👌
@NeuralProfit
Полезная вещь, для тех, кто не хочет читать сгенерированный контент, так и для тех, кто хочет маскировать этот самый контент. Сам гайд доступен на 4 языках, в том числе и на русском
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥12⚡6🤝3❤1
Если ваша компания или вы сами сидите на Google Workspace -
В Workspace Studio вы пишете задачу человеческим языком или берете готовый шаблон, дальше Gemini 3 сам настраивает логику. ИИ смотрит, и главное, понимает, контекст (текст письма, историю, чат и участников, документы), сам решает, что важно, и предлагает действие, как умный помощник внутри рабочего пространства. А не просто действует исходя из настроек “if / elif / else”.
Плюс, агенты можно прикрутить к Asana, Jira, Salesforce, Mailchimp и т.д. - то есть они могут дотягиваться и до задач, и до CRM.
К сожалению, пока доступно только для платных тарифов Google Workspace - Business, Enterprise, Education + AI Ultra / AI Pro. Если у вас в настройках выбран Rapid Release, то Workspace Studio уже доступно, если включен режим Scheduled Release - с 5 января 2026 станет доступен по расписанию.
Очень рекомендую вам посмотреть видео с официальной страницы в ютуб про переменные в Workspace Studio, я его перевела в ElevenLabs.
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥9👍7🤣1🤓1
От_фундаментальных_моделей_кода_к_агентам_и_приложениям_перевод.pdf
11.6 MB
Вышел большой (300+ страниц) обзор по кодовым моделям - From Code Foundation Models to Agents and Applications.
Это бесплатный учебник про то, как устроены кодовые нейросети (типа Copilot/Claude Code/Cursor), как их обучают и дообучают, и как из них собирают код-агентов и реальные инструменты для разработки.
Если вы ML / AI-инженер или разработчик и хотите сами обучать/тюнить код-модели, стоит хотя бы пролистать: там собраны текущие подходы к обучению моделей для кода, архитектуры агентов и примеры того, как эти модели применяются в реальных проектах.
Наш подписчик Сергей перевел учебник на русский, за что ему спасибо 🤝
@NeuralProfit
Это бесплатный учебник про то, как устроены кодовые нейросети (типа Copilot/Claude Code/Cursor), как их обучают и дообучают, и как из них собирают код-агентов и реальные инструменты для разработки.
Если вы ML / AI-инженер или разработчик и хотите сами обучать/тюнить код-модели, стоит хотя бы пролистать: там собраны текущие подходы к обучению моделей для кода, архитектуры агентов и примеры того, как эти модели применяются в реальных проектах.
Наш подписчик Сергей перевел учебник на русский, за что ему спасибо 🤝
@NeuralProfit
🔥25👍17🏆5❤4⚡2
Media is too big
VIEW IN TELEGRAM
Я дико обрадовалась, когда Adobe заколабились с ChatGPT, и стало возможным через коннекторы подсоединить Photoshop (редактирование изображений), Adobe Express (создание дизайна и контента) и
я хочу, чтобы ты помог мне сделать сертификат на бесплатное посещение салона красоты MontBlanc на процедуру массаж лица в преддверии Нового года” и он выдаст макеты, которые можно там же точечно править. Так что эту фичу смогут попробовать только избранные.Я пока в легком шоке пребываю, если честно. Я ждала "убийцу nano banana и seedream"
@NeuralProfit
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤🔥9🔥7🤝3❤1😁1
