FLUX.2 – новая опенсорсная SOTA в генерации изображений
Сразу дисклеймер. Модель идет в трех вариантах: Pro, Flex, Dev. Опенсорснули пока только Dev (некоммерческая лицензия). Вот веса. Скоро обещают выпустить еще FLUX.2 [klein], опенсорсную дистилляцию из FLUX.2 base под лицензией Apache 2.0.
Самая прикольная, конечно, Pro. Там и фотореалистичность круто прокачана, и всякий свет/текстуры/текст не плывут. Выглядит действительно красиво, в общем.
Также теперь можно загружать до 10 референсов (понимание промпта обещают на высоте, но будем проверять). Разрешение генераций до 4MP.
Что еще радует, так это соотношение цена/качество: от Nano-Banana 2 большинство генераций вообще не отличить по качеству, зато стоит FLUX.2 на 20% меньше.
Попробовать бесплатно можно здесь
Сразу дисклеймер. Модель идет в трех вариантах: Pro, Flex, Dev. Опенсорснули пока только Dev (некоммерческая лицензия). Вот веса. Скоро обещают выпустить еще FLUX.2 [klein], опенсорсную дистилляцию из FLUX.2 base под лицензией Apache 2.0.
Самая прикольная, конечно, Pro. Там и фотореалистичность круто прокачана, и всякий свет/текстуры/текст не плывут. Выглядит действительно красиво, в общем.
Также теперь можно загружать до 10 референсов (понимание промпта обещают на высоте, но будем проверять). Разрешение генераций до 4MP.
Что еще радует, так это соотношение цена/качество: от Nano-Banana 2 большинство генераций вообще не отличить по качеству, зато стоит FLUX.2 на 20% меньше.
Попробовать бесплатно можно здесь
👍55🔥21❤10😁8👏3
Media is too big
VIEW IN TELEGRAM
tl;dr по новому интервью Ильи Суцкевера у Дваркеша Пателя. Собрали самые яркие цитаты и мысли:
➖ Эпоха масштабирования моделей закончилась: мы возвращаемся в эпоху рисерча. Просто "вбухать еще больше компьюта" уже не работает: чтобы добиться существенного прорыва, нужны новые открытия.
➖ Узкое место текущих моделей – все еще генерализация. Это самое существенное, в чем ИИ отстает от человека, и, как следствие, основное препятствие на пути к AGI. Оценки на бенчах действительно выглядят хорошо и продолжают улучшаться, но это в какой-то степени мираж. Реальное качество отстает, потому что модели (в частности, во время RL) переобучаются под эвалы, а исследователи только способствуют этому, продолжая плодить однотипные бенчмарки и трейнинг лупы.
➖ Илья говорит, что у него есть идеи по поводу того, чего не хватает текущим моделям, но не делится ими, к сожалению. Хотя в интервью были намеки на то, что в SSI разрабатывают методы на основе Continual Learning и динамических reward функций.
➖ AGI может наступить и через 5, и через 20 лет. И когда AGI появится, самый надежный для людей способ не остаться бесполезными и сохранить контроль – слияние с ИИ (Neuralink???).
Все еще сильно советуем посмотреть полностью здесь
Все еще сильно советуем посмотреть полностью здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101 41❤21🗿7🔥6😁4 3👏2💯2🤯1
📌 Как прошёл год в ML: Яндекс представит итоги семи ключевых международных конференций
Если вы следите за трендами в машинном обучении, не пропустите ML Global Recap 11 декабря. На конференции ребята из Яндекса поделятся хайлайтами ключевых конференций в сфере ML за 2025 год.
Гостей ждут обзоры шести научных конференций, а также живые доклады о трендах в рекомендательных системах, компьютерном зрении, NLP и распознавании речи.
В программе:
— Краткий разбор NeurIPS — Алексей Гусаков, CTO группы Поисковые сервисы и ИИ;
— Тренды обработки звука с Interspeech — Борис Шелудько, руководитель команды качества звука;
— Тренды компьютерного зрения, обзор ICLR — Роман Исаченко, руководитель команды анализа изображений
— Тренды в NLP, обзор ICLR и ACL — Александр Юшкевич, руководитель команды развития моделей базового качества
— Новинки рекомендательных технологий, обзоры CIKM и RecSys — Николай Савушкин, руководитель команды рекомендательных технологий.
В этом году ребятам удалось представить на RecSys устный доклад – турбо уровень для мероприятий такого масштаба. Поделятся тем, как выглядел процесс изнутри – от подачи до выступления.
После докладов — фуршет и нетворкинг с участниками и спикерами. Отличная возможность обменяться идеями и обсудить, каким будет ML в 2026-м.
📍 11 декабря, 18:00, Omega Rooftop в Москве или онлайн.
Регистрация и подробности — по ссылке
Если вы следите за трендами в машинном обучении, не пропустите ML Global Recap 11 декабря. На конференции ребята из Яндекса поделятся хайлайтами ключевых конференций в сфере ML за 2025 год.
Гостей ждут обзоры шести научных конференций, а также живые доклады о трендах в рекомендательных системах, компьютерном зрении, NLP и распознавании речи.
В программе:
— Краткий разбор NeurIPS — Алексей Гусаков, CTO группы Поисковые сервисы и ИИ;
— Тренды обработки звука с Interspeech — Борис Шелудько, руководитель команды качества звука;
— Тренды компьютерного зрения, обзор ICLR — Роман Исаченко, руководитель команды анализа изображений
— Тренды в NLP, обзор ICLR и ACL — Александр Юшкевич, руководитель команды развития моделей базового качества
— Новинки рекомендательных технологий, обзоры CIKM и RecSys — Николай Савушкин, руководитель команды рекомендательных технологий.
В этом году ребятам удалось представить на RecSys устный доклад – турбо уровень для мероприятий такого масштаба. Поделятся тем, как выглядел процесс изнутри – от подачи до выступления.
После докладов — фуршет и нетворкинг с участниками и спикерами. Отличная возможность обменяться идеями и обсудить, каким будет ML в 2026-м.
📍 11 декабря, 18:00, Omega Rooftop в Москве или онлайн.
Регистрация и подробности — по ссылке
❤16🗿13👍5🔥1😁1
Nvidia сегодня снова в центре внимания: они внезапно выложили самодовольный твит, в котором поздравили Google с успехом, но (скажем так) не от всей души
Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.
Дословный перевод этого бархатно-токсичного чуда:
В определение "ASIC", если что, гугловские TPU попадают напрямую🤠
Ощущется пост буквально вот так:
Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.
Дословный перевод этого бархатно-токсичного чуда:
Мы рады успехам Google – они действительно заметно продвинулись в ИИ, и при этом мы продолжаем оставаться их поставщиком.
NVIDIA опережает всю отрасль как минимум на одно поколение – это единственная платформа, способная запускать любые модели ИИ и использоваться повсюду, где идут вычисления.
NVIDIA предлагает более высокую производительность, гибкость и взаимозаменяемость по сравнению с ASIC-чипами, которые заточены под конкретные фреймворки или отдельные задачи.
В определение "ASIC", если что, гугловские TPU попадают напрямую
Ощущется пост буквально вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
😁236❤28🍓11👌5👍2
Российские ученые первыми нашли способ защитить модели компьютерного зрения от пиратства без дополнительного обучения
Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.
В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.
Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.
Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.
В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.
Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.
1❤95😁43🔥26🗿17👍15🤔8🤯5 4
Forwarded from Sber AI
До следующей конференции — целый год. А пока мы ждём, подключайтесь к треку AI Journey на Конгрессе молодых учёных, который проходит в Сочи.
В прямом эфире 27 ноября с 12:00 до 13:30 эксперты и учёные из Сбера, Яндекса, ИТМО и Института AIRI обсудят:
🤩 Новую платформу «ИИ для науки» и как она поможет ускорять научные открытия
🤩 AI для предсказания поведения сложных химических систем и работы с климатическими рисками
🤩 Как роботы и беспилотные автомобили понимают 3D-мир?
🤩 AI как способ понять человека
Проектируйте будущее с AI!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🗿7❤4🔥4😁4 3👌1
Новое исследование от Anthropic: ребята решили посчитать реальный экономический эффект от Claude
Чем работа выделяется, так это тем, что эффект считают уже здесь и сейчас. В большинстве подобных отчетов вы встретите только что-то расплывчатое типа "вот если мы автоматизируем 30% задач, это будет +N% к ВВП". Тут считают эмпирику сегодня + на реальных данных юзеров.
Что, по факту, сделали:
1. Взяли 100 000 реальных диалогов юзеров Claude и тщательно (верим) все анонимизировали.
2. Для каждого диалога посчитали, сколько выполняемые задачи бы заняли у человека без ИИ. Получилось в среднем 90 минут, а с помощью Claude – на 80% меньше (опять же, в среднем).
2. Дальше задачи сопоставляли с профессиями (по классификации O*NET + данным из OEWS), чтобы оценить, сколько стоит выполнение такой задачи человеком. Итоговый экономический эффект = (сэкономленные часы) × (средняя $/час профессии).
Получилось, что если ИИ применяется повсеместно, то дает +1.8% росту производительности труда в год.
Учитывая, что доля труда в экономике обычно берется равной 60%, это означает примерно +1.1% годового прироста общей факторной производительности (TFP).
Для понимания: исторический рост TFP в развитых странах ≈ 0.5–1%.
Конечно, есть куча НО. Например, невозможно оценить, сколько люди тратят вне диалога с ИИ на доработку и проверку ответов. Во-вторых, выборка задач нерепрезентативна всей экономике (частично аналика это учитывает, но все же). Ну и наконец, если ИИ ускоряет работу, это не значит, что люди становятся более продуктивными: они могут просто меньше работать💀
Сами антропики пишут, что рассчитали скорее оценку снизу. "Есть основания полагать, что реальный экономический эффект выше".
www.anthropic.com/research/estimating-productivity-gains
Чем работа выделяется, так это тем, что эффект считают уже здесь и сейчас. В большинстве подобных отчетов вы встретите только что-то расплывчатое типа "вот если мы автоматизируем 30% задач, это будет +N% к ВВП". Тут считают эмпирику сегодня + на реальных данных юзеров.
Что, по факту, сделали:
1. Взяли 100 000 реальных диалогов юзеров Claude и тщательно (верим) все анонимизировали.
2. Для каждого диалога посчитали, сколько выполняемые задачи бы заняли у человека без ИИ. Получилось в среднем 90 минут, а с помощью Claude – на 80% меньше (опять же, в среднем).
2. Дальше задачи сопоставляли с профессиями (по классификации O*NET + данным из OEWS), чтобы оценить, сколько стоит выполнение такой задачи человеком. Итоговый экономический эффект = (сэкономленные часы) × (средняя $/час профессии).
Получилось, что если ИИ применяется повсеместно, то дает +1.8% росту производительности труда в год.
Учитывая, что доля труда в экономике обычно берется равной 60%, это означает примерно +1.1% годового прироста общей факторной производительности (TFP).
Для понимания: исторический рост TFP в развитых странах ≈ 0.5–1%.
Конечно, есть куча НО. Например, невозможно оценить, сколько люди тратят вне диалога с ИИ на доработку и проверку ответов. Во-вторых, выборка задач нерепрезентативна всей экономике (частично аналика это учитывает, но все же). Ну и наконец, если ИИ ускоряет работу, это не значит, что люди становятся более продуктивными: они могут просто меньше работать
Сами антропики пишут, что рассчитали скорее оценку снизу. "Есть основания полагать, что реальный экономический эффект выше".
www.anthropic.com/research/estimating-productivity-gains
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁44🔥41❤21🤔9👍1🤯1
Тем временем на ARC-AGI-2 ИИ-системе впервые удалось превзойти уровень человека
В лаборатории Poetiq придумали, как можно соединять разные LLM так, чтобы в разы бустить их производительность (кому интересно, внизу оставим ссылку на код). И вот 20 ноября они заявили, что их подход – микс Gemini 3 и GPT-5.1 – впервые дал на бенчмарке результат, превосходящий человека.
Правда, это только на публичном evaluation-сете. При переносе на semi-private результат, скорее всего, ухудшится. Но учитывая, что по отдельности модели даже близко не дотягивают до 60% (у Gemini 3 45%, у GPT-5 около 20%), все равно новость занятная.
Еще пол года назад ARC-AGI-2 казался для ИИ вообще нерешаемым, а самые топовые модели выбивали на нем 1-2%.
Блогпост | Код
В лаборатории Poetiq придумали, как можно соединять разные LLM так, чтобы в разы бустить их производительность (кому интересно, внизу оставим ссылку на код). И вот 20 ноября они заявили, что их подход – микс Gemini 3 и GPT-5.1 – впервые дал на бенчмарке результат, превосходящий человека.
Правда, это только на публичном evaluation-сете. При переносе на semi-private результат, скорее всего, ухудшится. Но учитывая, что по отдельности модели даже близко не дотягивают до 60% (у Gemini 3 45%, у GPT-5 около 20%), все равно новость занятная.
Еще пол года назад ARC-AGI-2 казался для ИИ вообще нерешаемым, а самые топовые модели выбивали на нем 1-2%.
Блогпост | Код
❤🔥66🔥30❤11 11😁8👍7🤯7🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Конференция AI Driver & RecSys Темы — пространство, где наука и бизнес встречаются, чтобы обсудить будущее рекомендаций ⚡️
28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.
На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.
Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.
Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.
На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.
Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.
Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
🗿10❤7👍5🔥3☃1
This media is not supported in your browser
VIEW IN TELEGRAM
В честь пятилетия AlphaFold Google впервые выложили в бесплатный доступ фильм про DeepMind
Картина называется The Thinking Game, наверняка кто-то из вас ее уже смотрел. Фильм вышел летом 2024, но до этого дня был доступен только на платных площадках.
Сегодня, в честь 5-летия AlphaFold, Google впервые бесплатно выложили его на YouTube.
Документалка снималась с 2019 и рассказывает о Демисе Хассабисе, основателе и CEO DeepMind, его команде и ключевых моментах разработки легендарных систем вроде AlphaGo, AlphaZero и AlphaFold.
100% советуем к просмотру: https://youtu.be/d95J8yzvjbQ
Картина называется The Thinking Game, наверняка кто-то из вас ее уже смотрел. Фильм вышел летом 2024, но до этого дня был доступен только на платных площадках.
Сегодня, в честь 5-летия AlphaFold, Google впервые бесплатно выложили его на YouTube.
Документалка снималась с 2019 и рассказывает о Демисе Хассабисе, основателе и CEO DeepMind, его команде и ключевых моментах разработки легендарных систем вроде AlphaGo, AlphaZero и AlphaFold.
100% советуем к просмотру: https://youtu.be/d95J8yzvjbQ
👍77🔥28 11❤9😁2
Статья от команды Qwen взяла награду Best Paper Award на NeurIPS 2025
Работа называется "Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free". В ней исследователи предложили новый вид механизма внимания – gated attention.
Суть в том, что на выход каждой attention-головы мы добавляем сигмоидную шторку, которая масштабирует аутпуты.
Фактически, из Attention → Output мы делаем Attention → Sigmoid-gate × Output.
Причем гейт – это обучаемый блок. Интуитивно, гейт учится понимать, насколько голова полезна в конкретном случае, и насколько, следовательно, нужно усилить или заглушить ее сигнал.
В целом хак небольшой, но оказывается, что прокачивает и стабильность обучения, и итоговое качество. А еще помогает избегать залипания внимания на первых токенах и деградации способностей при увеличении контекста.
Короче, работа правда достойная (почитать можно здесь). Так что поздравляем Qwen с очередным успехом.
Работа называется "Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free". В ней исследователи предложили новый вид механизма внимания – gated attention.
Суть в том, что на выход каждой attention-головы мы добавляем сигмоидную шторку, которая масштабирует аутпуты.
Фактически, из Attention → Output мы делаем Attention → Sigmoid-gate × Output.
Причем гейт – это обучаемый блок. Интуитивно, гейт учится понимать, насколько голова полезна в конкретном случае, и насколько, следовательно, нужно усилить или заглушить ее сигнал.
В целом хак небольшой, но оказывается, что прокачивает и стабильность обучения, и итоговое качество. А еще помогает избегать залипания внимания на первых токенах и деградации способностей при увеличении контекста.
Короче, работа правда достойная (почитать можно здесь). Так что поздравляем Qwen с очередным успехом.
❤96🔥38👍22😁2☃1
С релиза первой версии прошло почти два года. Новую уже никто и не ждал, но релиз, как это часто бывает в случае с DeepSeek, наступил внезапно.
Сразу кратко о результатах:
– Уровень золотой медали на IMO 2025 и CMO 2024 (Chinese Mathematical Olympiad).
– Почти идеальный результат 118/120 на Putnam 2024. Это сверхсложная математическая олимпиада для студентов университетов США и Канады.
– Бенчмарков мало, нет ни MATH, ни GSM8K, ни AIME, вообще почти ничего. Это странновато, но можно пока посмотреть на сравнения с другими моделями на IMO-ProofBench. Видно, что модель довольно уверенно бьет GPT-5 и на сложных задачах выходит на уровень с Gemini 2.5 Pro. Опять же, интересно, что там с Gemini 3, Grok 4 и GPT-5.1.
Теперь заглянем под капот.
Система основана на DeepSeek-V3.2-Exp-Base. Пайплайн состоит из генератора и верификатора.
Доказательство или решение формируется не за раз, а в результате нескольких проходов и улучшений: большая модель генерирует решение -> оно отправляется в модель-верификатор, где тщательно проверяется каждый шаг и ищутся ошибки -> обратная связь от верификатора возвращается генератору -> так доказательство переписывается и улучшается до 16 раз.
При этом в каждой итерации используются и проверяются сразу несколько (до 64) гипотез и вариантов решения. Получается сотни прогонов для одной задачи. Такое вот умное структурированное масштабирование test-time компьюта.
Сколько стоило решение олимпиады – не раскрывают, но видимо немало. Судя по всему, поэтому результатов по бенчмаркам и нет: денег не хватило
Веса | Статья | Репозиторий
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76😁28❤14👍8👌3
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁320😎28👍16❤4🔥4
