Telegram Group Search
FLUX.2 – новая опенсорсная SOTA в генерации изображений

Сразу дисклеймер. Модель идет в трех вариантах: Pro, Flex, Dev. Опенсорснули пока только Dev (некоммерческая лицензия). Вот веса. Скоро обещают выпустить еще FLUX.2 [klein], опенсорсную дистилляцию из FLUX.2 base под лицензией Apache 2.0.

Самая прикольная, конечно, Pro. Там и фотореалистичность круто прокачана, и всякий свет/текстуры/текст не плывут. Выглядит действительно красиво, в общем.

Также теперь можно загружать до 10 референсов (понимание промпта обещают на высоте, но будем проверять). Разрешение генераций до 4MP.

Что еще радует, так это соотношение цена/качество: от Nano-Banana 2 большинство генераций вообще не отличить по качеству, зато стоит FLUX.2 на 20% меньше.

Попробовать бесплатно можно здесь
👍55🔥2110😁8👏3
Media is too big
VIEW IN TELEGRAM
tl;dr по новому интервью Ильи Суцкевера у Дваркеша Пателя. Собрали самые яркие цитаты и мысли:

Эпоха масштабирования моделей закончилась: мы возвращаемся в эпоху рисерча. Просто "вбухать еще больше компьюта" уже не работает: чтобы добиться существенного прорыва, нужны новые открытия.

Узкое место текущих моделей – все еще генерализация. Это самое существенное, в чем ИИ отстает от человека, и, как следствие, основное препятствие на пути к AGI. Оценки на бенчах действительно выглядят хорошо и продолжают улучшаться, но это в какой-то степени мираж. Реальное качество отстает, потому что модели (в частности, во время RL) переобучаются под эвалы, а исследователи только способствуют этому, продолжая плодить однотипные бенчмарки и трейнинг лупы.

Илья говорит, что у него есть идеи по поводу того, чего не хватает текущим моделям, но не делится ими, к сожалению. Хотя в интервью были намеки на то, что в SSI разрабатывают методы на основе Continual Learning и динамических reward функций.

AGI может наступить и через 5, и через 20 лет. И когда AGI появится, самый надежный для людей способ не остаться бесполезными и сохранить контроль – слияние с ИИ (Neuralink???).

Все еще сильно советуем посмотреть полностью здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1014121🗿7🔥6😁43👏2💯2🤯1
📌 Как прошёл год в ML: Яндекс представит итоги семи ключевых международных конференций

Если вы следите за трендами в машинном обучении, не пропустите ML Global Recap 11 декабря. На конференции ребята из Яндекса поделятся хайлайтами ключевых конференций в сфере ML за 2025 год.
Гостей ждут обзоры шести научных конференций, а также живые доклады о трендах в рекомендательных системах, компьютерном зрении, NLP и распознавании речи.

В программе:

Краткий разбор NeurIPS — Алексей Гусаков, CTO группы Поисковые сервисы и ИИ;
Тренды обработки звука с Interspeech — Борис Шелудько, руководитель команды качества звука;
Тренды компьютерного зрения, обзор ICLR — Роман Исаченко, руководитель команды анализа изображений
Тренды в NLP, обзор ICLR и ACL — Александр Юшкевич, руководитель команды развития моделей базового качества
Новинки рекомендательных технологий, обзоры CIKM и RecSys — Николай Савушкин, руководитель команды рекомендательных технологий.

В этом году ребятам удалось представить на RecSys устный доклад – турбо уровень для мероприятий такого масштаба. Поделятся тем, как выглядел процесс изнутри – от подачи до выступления.

После докладов — фуршет и нетворкинг с участниками и спикерами. Отличная возможность обменяться идеями и обсудить, каким будет ML в 2026-м.

📍 11 декабря, 18:00, Omega Rooftop в Москве или онлайн.
Регистрация и подробности — по ссылке
16🗿13👍5🔥1😁1
Nvidia сегодня снова в центре внимания: они внезапно выложили самодовольный твит, в котором поздравили Google с успехом, но (скажем так) не от всей души

Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.

Дословный перевод этого бархатно-токсичного чуда:

Мы рады успехам Google – они действительно заметно продвинулись в ИИ, и при этом мы продолжаем оставаться их поставщиком.

NVIDIA опережает всю отрасль как минимум на одно поколение – это единственная платформа, способная запускать любые модели ИИ и использоваться повсюду, где идут вычисления.

NVIDIA предлагает более высокую производительность, гибкость и взаимозаменяемость по сравнению с ASIC-чипами, которые заточены под конкретные фреймворки или отдельные задачи.


В определение "ASIC", если что, гугловские TPU попадают напрямую 🤠

Ощущется пост буквально вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23628🍓11👌5👍2
Российские ученые первыми нашли способ защитить модели компьютерного зрения от пиратства без дополнительного обучения

Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.

В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.

Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.
195😁43🔥26🗿17👍15🤔8🤯54
Forwarded from Sber AI
🤩 AI Journey возвращается 🤩

До следующей конференции — целый год. А пока мы ждём, подключайтесь к треку AI Journey на Конгрессе молодых учёных, который проходит в Сочи.

В прямом эфире 27 ноября с 12:00 до 13:30 эксперты и учёные из Сбера, Яндекса, ИТМО и Института AIRI обсудят:

🤩 Новую платформу «ИИ для науки» и как она поможет ускорять научные открытия

🤩 AI для предсказания поведения сложных химических систем и работы с климатическими рисками

🤩 Как роботы и беспилотные автомобили понимают 3D-мир?

🤩 AI как способ понять человека


Проектируйте будущее с AI!

◀️ Подключайтесь к прямому эфиру и следите за новостями вместе со Sber AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🗿74🔥4😁43👌1
Новое исследование от Anthropic: ребята решили посчитать реальный экономический эффект от Claude

Чем работа выделяется, так это тем, что эффект считают уже здесь и сейчас. В большинстве подобных отчетов вы встретите только что-то расплывчатое типа "вот если мы автоматизируем 30% задач, это будет +N% к ВВП". Тут считают эмпирику сегодня + на реальных данных юзеров.

Что, по факту, сделали:

1. Взяли 100 000 реальных диалогов юзеров Claude и тщательно (верим) все анонимизировали.

2. Для каждого диалога посчитали, сколько выполняемые задачи бы заняли у человека без ИИ. Получилось в среднем 90 минут, а с помощью Claude – на 80% меньше (опять же, в среднем).

2. Дальше задачи сопоставляли с профессиями (по классификации O*NET + данным из OEWS), чтобы оценить, сколько стоит выполнение такой задачи человеком. Итоговый экономический эффект = (сэкономленные часы) × (средняя $/час профессии).

Получилось, что если ИИ применяется повсеместно, то дает +1.8% росту производительности труда в год.

Учитывая, что доля труда в экономике обычно берется равной 60%, это означает примерно +1.1% годового прироста общей факторной производительности (TFP).

Для понимания: исторический рост TFP в развитых странах ≈ 0.5–1%.

Конечно, есть куча НО. Например, невозможно оценить, сколько люди тратят вне диалога с ИИ на доработку и проверку ответов. Во-вторых, выборка задач нерепрезентативна всей экономике (частично аналика это учитывает, но все же). Ну и наконец, если ИИ ускоряет работу, это не значит, что люди становятся более продуктивными: они могут просто меньше работать 💀

Сами антропики пишут, что рассчитали скорее оценку снизу. "Есть основания полагать, что реальный экономический эффект выше".

www.anthropic.com/research/estimating-productivity-gains
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁44🔥4121🤔9👍1🤯1
Курица не птица, рисерчер с волосами – не авторитет
😁280👍18🔥13932🤔1
Тем временем на ARC-AGI-2 ИИ-системе впервые удалось превзойти уровень человека

В лаборатории Poetiq придумали, как можно соединять разные LLM так, чтобы в разы бустить их производительность (кому интересно, внизу оставим ссылку на код). И вот 20 ноября они заявили, что их подход – микс Gemini 3 и GPT-5.1 – впервые дал на бенчмарке результат, превосходящий человека.

Правда, это только на публичном evaluation-сете. При переносе на semi-private результат, скорее всего, ухудшится. Но учитывая, что по отдельности модели даже близко не дотягивают до 60% (у Gemini 3 45%, у GPT-5 около 20%), все равно новость занятная.

Еще пол года назад ARC-AGI-2 казался для ИИ вообще нерешаемым, а самые топовые модели выбивали на нем 1-2%.

Блогпост | Код
❤‍🔥66🔥301111😁8👍7🤯7🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Конференция AI Driver & RecSys Темы — пространство, где наука и бизнес встречаются, чтобы обсудить будущее рекомендаций ⚡️

28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.

На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.

Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.

Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
🗿107👍5🔥31
This media is not supported in your browser
VIEW IN TELEGRAM
В честь пятилетия AlphaFold Google впервые выложили в бесплатный доступ фильм про DeepMind

Картина называется The Thinking Game, наверняка кто-то из вас ее уже смотрел. Фильм вышел летом 2024, но до этого дня был доступен только на платных площадках.

Сегодня, в честь 5-летия AlphaFold, Google впервые бесплатно выложили его на YouTube.

Документалка снималась с 2019 и рассказывает о Демисе Хассабисе, основателе и CEO DeepMind, его команде и ключевых моментах разработки легендарных систем вроде AlphaGo, AlphaZero и AlphaFold.

100% советуем к просмотру: https://youtu.be/d95J8yzvjbQ
👍77🔥28119😁2
Я на любом рабочем дейлике, когда речь заходит о моих задачах
😁175👍14872🔥1
Статья от команды Qwen взяла награду Best Paper Award на NeurIPS 2025

Работа называется "Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free". В ней исследователи предложили новый вид механизма внимания – gated attention.

Суть в том, что на выход каждой attention-головы мы добавляем сигмоидную шторку, которая масштабирует аутпуты.

Фактически, из Attention → Output мы делаем Attention → Sigmoid-gate × Output.

Причем гейт – это обучаемый блок. Интуитивно, гейт учится понимать, насколько голова полезна в конкретном случае, и насколько, следовательно, нужно усилить или заглушить ее сигнал.

В целом хак небольшой, но оказывается, что прокачивает и стабильность обучения, и итоговое качество. А еще помогает избегать залипания внимания на первых токенах и деградации способностей при увеличении контекста.

Короче, работа правда достойная (почитать можно здесь). Так что поздравляем Qwen с очередным успехом.
96🔥38👍22😁21
⚡️ Вышел DeepSeek-Math-V2

С релиза первой версии прошло почти два года. Новую уже никто и не ждал, но релиз, как это часто бывает в случае с DeepSeek, наступил внезапно.

Сразу кратко о результатах:

– Уровень золотой медали на IMO 2025 и CMO 2024 (Chinese Mathematical Olympiad).

– Почти идеальный результат 118/120 на Putnam 2024. Это сверхсложная математическая олимпиада для студентов университетов США и Канады.

– Бенчмарков мало, нет ни MATH, ни GSM8K, ни AIME, вообще почти ничего. Это странновато, но можно пока посмотреть на сравнения с другими моделями на IMO-ProofBench. Видно, что модель довольно уверенно бьет GPT-5 и на сложных задачах выходит на уровень с Gemini 2.5 Pro. Опять же, интересно, что там с Gemini 3, Grok 4 и GPT-5.1.

Теперь заглянем под капот.

Система основана на DeepSeek-V3.2-Exp-Base. Пайплайн состоит из генератора и верификатора.

Доказательство или решение формируется не за раз, а в результате нескольких проходов и улучшений: большая модель генерирует решение -> оно отправляется в модель-верификатор, где тщательно проверяется каждый шаг и ищутся ошибки -> обратная связь от верификатора возвращается генератору -> так доказательство переписывается и улучшается до 16 раз.

При этом в каждой итерации используются и проверяются сразу несколько (до 64) гипотез и вариантов решения. Получается сотни прогонов для одной задачи. Такое вот умное структурированное масштабирование test-time компьюта.

Сколько стоило решение олимпиады – не раскрывают, но видимо немало. Судя по всему, поэтому результатов по бенчмаркам и нет: денег не хватило 😭

Веса | Статья | Репозиторий
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76😁2814👍8👌3
Потестили новый Claude Opus 4.5, кстати, отличная модель ⬆️
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁320😎28👍164🔥4
2025/11/28 02:56:04
Back to Top
HTML Embed Code: