Telegram Group Search
This media is not supported in your browser
VIEW IN TELEGRAM
🌪️ Microsoft Aurora: как ИИ предсказывает погоду лучше метеорологов

*Спойлер: следующий ураган уже на радаре. И это не просто прогноз — это расчёт мощнейшей AI-модели, которая видит то, что не замечают традиционные системы предсказания погоды.

Microsoft Research представила Aurora — фундаментальную ИИ-модель, которая не просто предсказывает погоду, а переигрывает существующие системы по точности, скорости и стоимости вычислений.

Цифры:

91% — настолько чаще Aurora точнее других моделей (Nature, 2025).
5000× быстрее традиционных суперкомпьютерных расчётов.
1 млн часов данных — спутники, радары, станции — самый большой датасет для тренировки ИИ в истории метеорологии.

🌊 Реальный track record модели:

1️⃣ Тайфун «Доксури» (2023)
→ Официальный прогноз: «пройдёт мимо Филиппин».
→ Aurora за 4 дня: «удар будет здесь».
→ Реальность: разрушения, потоп на Филиппинах

2️⃣ Песчаная буря в Ираке
→ Данных по качеству воздуха — мало.
→ Aurora всё равно предупредила за сутки.
→ Точность — при в сотни раз меньших затратах.

3️⃣ Высота волн от тайфуна «Нанмадол»
→ Обычные модели ошибались.
→ Aurora дала точный прогноз — рекорд 2022 года.

Зачем это нам?

- Бизнес: логистика, энергетика, сельское хозяйство — теперь можно планировать с учётом более реальных рисков
- Наука: модель открыта — можно дообучать под свои задачи (например, предсказывать наводнения в конкретном регионе).
- Технологии: архитектура Aurora — новый стандарт для AI-моделей в Earth Science.


*P.S. Если Aurora скажет «завтра брать зонт» — лучше послушайтесь.

🌪️Блог

Статья

🌋GitHub
Слишком хорошо, что бы не поделиться https://vm.tiktok.com/ZNdhurrDe/
Чат: посоветуйте наушники 🎧 нужны который большие, и что бы с блютусом, и что бы с Apple хорошо дружили, и супер звук, и не слишком тяжелые, что бы гулять можно было. До этого пользовался AirPod Max, все нравилось, но спустя ~2 года они безбожно глючат и постоянно перезагружаются.
Помните было приложение Vivino, которое помогало выбирать винишко в магазине? Так вот, теперь ChatGPT(о3) тоже так умеет, и даже лучше
4 года нашему каналу

На днях, нам исполнилось 4 года! Тогда он назывался NN For Science, и я писал в основном про то, как можно использовать глубокое обучение в науке. Довольно быстро, я пришел к выводу, что ИИ будет абсолютно везде -> AI для всех.

4 года назад я сгенерировал аватарку канала с помощью Dall-E. Сегодня - картинку рисовал ChatGPT.

За время существования канала я успел пожить в Москве, Вене, Тель-Авиве и Кремниевой долине, а сейчас я живу в Сан Франциско. Так что репортажи - прямиком из эпицентра ИИ!

Сделайте нам подарок - поделитесь нашим каналом со своими друзьями!

Нас станет больше, а друзья окажутся на самом фронтире искусственного интеллекта.
🧠🔍 Anthropic выложили в открытый доступ «рентген» для LLM

Сегодня ребята из Anthropic выложили в open-source свежайший circuit-tracer — библиотеку + веб-интерфейс, которые позволяют буквально «посветить фонариком» внутрь любых открытых LLM и посмотреть, как токены влияют друг на друга.

Что дают?

Attribution graphs — автоматически строят граф «кто-на-кого влияет» (токены → фичи → логиты).
Neuronpedia UI — кликаешь 👉 смотришь цепочки рассуждений, группируешь узлы, подписываешь и делишься ссылкой.
Интервенции — в ноутбуке можно подкрутить найденные фичи и сразу увидеть, как меняется ответ модели.

Зачем это нам?
🔑 Интерпретируемость давно отставала от «качаем ещё 10B параметров». Теперь любой энтузиаст может проверить, какие цепочки выводят модель к финальному слову, найти баги рассуждений и даже чинить их on-the-fly.

Пробуйте, делитесь самыми странными цепочки — интересно, какие «мысленные кроличьи норы» вы откопаете! 🐇👆

Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
AI-шторм: что грядёт на рынке белых воротничков и как не остаться без дела

1. Главное предупреждение

Дарио Амодей (Anthropic) оценивает, что до 50 % стартовых офисных позиций могут исчезнуть за 1–5 лет, а безработица подпрыгнуть до 10–20 %.
• Сейчас, по внутренним данным Anthropic, 60 % пользователей применяют ИИ для поддержки работы, но 40 % — уже для полной автоматизации; доля автоматизации растёт ежемесячно.

2. Почему этот сценарий реалистичен

Microsoft уволила ~6 000 человек (≈3 % штата) — официально ради «структурного разворота под ИИ-приоритеты».
Walmart сокращает 1 500 корпоративных позиций и параллельно инвестирует $500 млн в AI и роботизацию.
CrowdStrike убирает 5 % персонала (≈500 человек), ссылаясь на «AI-эффективность».
Марк Цукерберг (подкаст Joe Rogan, Jan 2025): «В 2025 году у Meta и других компаний будет ИИ-“мидл инженер”, пишущий код вместо людей».

Эти решения сигнализируют: как только модели устойчиво достигают «человеческой» планки качества — бизнес мгновенно меняет оргструктуру и hiring-планы.

3. Что это значит для молодых специалистов

Учись на реальных задачах. Выделяй хотя бы час в день на ChatGPT/Claude/Gemini для своих типовых задач — найди, что уже автоматизируется.
Собери «ИИ-инструментарий» под свой стек (код, аналитика, техдок, RAG-системы). Цель — минимум удвоить личную продуктивность к концу года.
Прокачивай критическое мышление — отсеивай хайп, проверяй данные, экспериментируй.
Строй портфель навыков, которые усиливаются, а не вытесняются ИИ: product-мышление, постановка задач, доменная экспертиза, клиентский контакт.
Сети и сообщество. Делись кейсами автоматизации — это лучший «щит» на рынке труда.

4. Что могут сделать лидеры команд

Перестать не замечать риски. Честно обозначить сотрудникам уязвимые роли и дать доступ к продвинутым моделям.
Требовать от каждой функции «10×-план»: как ИИ повысит скорость/качество конкретных метрик.
Упростить процессы. Чем короче цепочка решений, тем быстрее компания адаптируется к новым возможностям моделей.

5. Политические идеи (то что предлагает Дарио Амодей)

«Token-tax» 3 % с каждой оплаченной токен-операции в пользу фондов переподготовки.
• Ваучеры на быструю переквалификацию в смежные ИИ-дополняемые роли.
• Публичные дашборды об автоматизируемых профессиях — чтобы регионы видели угрозы заранее.

6. Итог

ИИ переопределяет ценность навыков. Тот, кто научится делать больше с помощью моделей, окажется на гребне новой волны. Тот, кто проигнорирует сигнал, рискует попасть под удар первой же волны автоматизации.

Ссылка

🎯 Вопрос к сообществу: какие рутины вы уже переложили на ИИ? Поделитесь историями — учимся друг у друга!
Please open Telegram to view this post
VIEW IN TELEGRAM
Худший способ платить сотрудникам в разные страны — делать всё вручную: контракты, инвойсы, документы для банков. Я серьёзно.

Представьте, сколько ресурсов тратит финотдел на выплату зарплат в разные страны с соблюдением международных законов. А банки ещё и блокируют платежи, запрашивают документы и требуют доказать квалификацию исполнителя.

В итоге для большинства global-компаний платить удалённым сотрудникам и фрилансерам — это головная боль и масса рисков. Но с платформой 4dev.com всё гораздо проще.

⭐️ 4dev.com это:

- один b2b-договор с платформой вместо десятков индивидуальных с каждым сотрудником
- мгновенные выплаты удалённым сотрудникам и фрилансерам в 100+ стран, в том числе в СНГ
- автоматическое создание закрывающих документов по каждой выплате и решение проблемы банковского комплаенса
- комиссия 1–3% для бизнеса
💵 легальные криптоплатежи, а также выплаты в 30+ фиатных валютах

Всё это без авралов и утомительной бумажной работы.

Запишитесь на демо в 1 клик. Специалист платформы погрузится в ваши задачи и поможет найти решение именно для вашего бизнеса!

#промо #текстприслан
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Thinkless: LLM учится, когда нужно думать

Современные LLM, способные к долгим логическим рассуждениям продемонстрировали замечательную производительность при решении задач, требующих сложных логических выводов

Однако применение сложных рассуждений для абсолютно всех запросов часто приводит к существенной вычислительной неэффективности, особенно когда многие проблемы допускают
простые решения.

Исследователи из университета Сингапура поставили вопрос ребром: могут ли LLM научиться, когда думать?

Чтобы ответить на этот вопрос, предложен Thinkless, обучаемый фрэмворк, который позволяет LLM адаптивно выбирать между краткой и длинной формой рассуждений, основываясь как на сложности задачи, так и на возможностях модели.

Thinkless обучается при помощи Reinforcement Learning, где использует два контрольных токена, <short> для кратких ответов и <think> для подробного рассуждения.

В основе предложенного метода лежит алгоритм Decoupled Group Relative Policy Optimization (DeGRPO), который разделяет выбор режима рассуждения и точности ответа, избегая коллапса.

Эмпирически, на нескольких бенчмарках, таких как Minerva Algebra, MATH-500 и GSM8K, Thinkless способен сократить использование длинных логических рассуждений на 50% - 90% без потери качества ответов.


"Думай быстро и медленно"в действии!

🧠 Статья

🖥GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
Краткий пересказ нового эссе Сэма Алтмана - Благодатная Сингулярность

TLDR: Алтман утверждает, что мы уже вступили в эпоху стремительно развивающегося сверхинтеллекта, способного взорвать прогресс и требующего безопасного, справедливого распределения его преимуществ.

Человечество уже пересекло «событийный горизонт» цифрового сверхинтеллекта, и процесс ощущается удивительно буднично.

Несмотря на успехи ИИ, по улицам не ходят роботы, мы всё ещё не летаем в космос и многие тайны Вселенной остаются неразгаданными.

Системы уровня GPT-4 и О3 уже превосходят людей во многих задачах, и самые трудные научные прорывы (в AI) позади.

Быстрейшие инновации и рост продуктивности благодаря ИИ обещают огромный скачок качества жизни.

Масштаб ChatGPT таков, что крошечные улучшения — или ошибки — могут (и будут) умножаться на сотни миллионов пользователей.

В 2025-2027 годах агенты перейдут от помощников-кодеров к создателям инсайтов и роботам, работающим в реальном мире.

К 2030 году один человек сможет делать несравнимо больше, резко вырастут творческие и технические возможности.

При этом в 2030-х люди всё так же будут любить семьи, творить, играть и плавать в озёрах.

Но в то же время нас ждут беспрецедентные перемены, поскольку интеллект вырвется далеко за пределы человеческого.

Изобилие интеллекта и дешёвая энергия снимут давние ограничители прогресса при условии грамотного управления.

Чудеса ИИ быстро становятся обыденностью: от абзацев — к романам, от диагнозов — к лекарствам, от кода — к целым компаниям.

Учёные уже сообщают о 2–3-кратном росте продуктивности; сжатие десятилетия исследований в месяцы изменит темпы открытий.

ИИ уже на пути рекурсивного самоулучшения, ускоряя создание ещё лучшего ИИ.

Экономическая выгода запустила маховик инвестиций в вычислительную инфраструктуру и само-строящиеся технологии.

Когда гуманоидные роботы полностью возьмут на себя цепочки поставок, прогресс ускорится ещё сильнее.

Автоматизация сведёт предельную стоимость интеллекта почти к цене электроэнергии и капле воды.

Быстрый прогресс уничтожит целые профессии, но растущие богатства позволят смелые социальные нововведения и плавную адаптацию.

Как и раньше в индустриальные эпохи, общество придумает новые желания и роли, сохраняя человеческий фокус на людях, а не машинах.

Работы далёкого будущего покажутся нам «нелепыми», но будут важны и увлекательны для тех, кто ими занят.

Прорывы будут каскадировать: сегодня — физика, завтра — колонизация космоса или интерфейсы мозг-компьютер.

Жить в эпоху сингулярности, вероятно, окажется впечатляюще, но вполне по силам: экспонента гладка, хоть и крута.

Нужно решить вопросы безопасности ИИ и обеспечить широкий доступ к сверхинтеллекту для максимальной пользы и минимизации рисков.

- Шаг 1: надёжный алаймент, чтобы ИИ служил долгосрочным интересам человечества, а не сиюминутным импульсам.
- Шаг 2: сделать сверхинтеллект дешёвым и доступным всем, установив общественные рамки коллективного согласия.

Индустрия фактически строит персональный «мозг мира», где дефицитом станут идеи, а не исполнение.

Миссия OpenAI — исследование сверхинтеллекта; путь впереди уже освещён, и тьма быстро отступает.

«Интеллект дешевле воды» теперь звучит правдоподобно, так же как сегодняшняя реальность казалась фантастикой в 2020-м.

Пусть наше восхождение к сверхинтеллекту будет плавным, экспоненциальным и мирным.

Эссе в оригинале
Гуляю по Нью-Йорку и не могу нарадоваться от лета! В СФ конечно AI и все дела, но там летом в пуховках ходят!
🚗 Scaling Laws в беспилотном транспорте

О чём вообще речь?

Waymo опубликовала исследование: взяла 500 000 часов реальных поездок, обучила трансформеры до 30 М параметров на задаче «предскажи всех участников трафика + спланируй свою траекторию» — и построила лог-лог кривые. Они оказались почти прямыми: качество растёт как Compute^-0.27. То есть больше GPU → меньше аварий.

Почему так происходит?
1. Переизбыточность данных. Чем разнообразнее поездки, тем выше шанс встретить редкий «поворот на красный в тумане».
2. Масштаб модели сложность среды. Шире сеть — больше «места» запомнить длинный хвост редких сценариев.
3. Инференс-семплы для улучшения предсказаний. Monte-Carlo-планирование с 100-200 вариантом хода позволяет маленькой сети догнать большую.

Как Waymo проверяла гипотезу?
Данные: 0.5 млн часов поездок (крупнейший приватный датасет в AV).
Модели: трансформеры 1 М → 30 М параметров.
Метрики:
Open-loop — MSE/NLL на фиксированных сценариях.
Closed-loop — симуляция, где ошибка ведёт к столкновению.
Вычисления: масштабировали и обучение, и число сэмплов при планировании.

Что из этого следует?
Open ≈ Closed. Улучшения на статическом датасете почти линейно переходят в симуляцию — можно быстро итераировать без дорогих полевых испытаний.
Бюджет предсказуем. Команды робототехники могут планировать апгрейды так же, как NLP-команды: знаешь FLOPs → знаешь будущую точность.
Шанс для стартапов. При умном инференсе компактные сети догоняют 30-миллионную — открывая путь к поколению «лайт-роботакси».
Барьеры остались. Сенсоры, лицензии на данные и суперредкие кейсы никто не отменял.

Практическая интуиция

Думайте о беспилотнике как о GPT на колёсах: хотите безопаснее — покупайте ещё миллионы часов трафика и горки GPU.

Блог-пост
🚀 AI-бум на Stripe: как Lovable вышел на космические обороты

Stripe проанализировал крупнейшие AI-компании 2024 года и увидел взрывной рост: стартапы на ИИ растут быстрее, чем SaaS-поколение 2018-го. Почему? Что они делают иначе? Узнаете на открытом онлайн-интервью с основателем Lovable — одного из самых быстро растущих продуктов для вайб-кодинга.

Что будут обсуждать 💡

* Сверхбыстрый GTM: как LLM сокращают путь «код → рынок».
* Конверсия в цифрах: новые тактики привлечения пользователей в эпоху ажиотажа вокруг ИИ.
* Монетизация на старте: какие модели цен и скейлинга работают лучше всего.

Спикеры 🎙️

* Anton Osika — со-основатель и CEO, Lovable (Стокгольм)
* Eeke de Milliano — Head of Global Product, Stripe
* Laura Buhler — Global Head of Startup Product Marketing, Stripe

Когда 🗓️

18 июня 2025 г.
12:00 – 12:30 (МСК) / 10:00 – 10:30 (BST) / 11:00 – 11:30 (CEST)
Площадка: Zoom (онлайн)

Для кого 👥

Фаундеры, продукт-лидеры и все, кто хочет ускорить рост AI-стартапа в Европе и мира по-новому выйти на рынок.

👉 Регистрация
Bay Area: поехали в кэмпинг!

На этих выходных (21-22). Будет лето, солнцестояние, озеро и очень хорошо!

Куда именно еще не решил, открыт к предложениям

https://partiful.com/e/mCDcJ0gozJjRH1LyXDon
Бесплатная конференция НейроНавигатор 5.0 – про то, как не тратить время на контент и передать задачи нейросетям.

Тексты, визуал, стратегии – за минуты.
Команда и помощники – в 3 раза дешевле.
Упаковка и воронки – на автопилоте.

После регистрации в боте доступны:
Нейронавигатор – +3 свободных часа в день.
Генератор прибыли – 3 модели заработка.
Готовые шаблоны от топ-экспертов.

👉 Старт конференции 20 июня, бесплатная регистрация по ссылке

#промо
This media is not supported in your browser
VIEW IN TELEGRAM
Adventures in AI

У нас тут в Сан Франциско есть интерактивный музей, который называется Exploratorium. В нем, Антропик организовал временную выставку про искусственный интеллект. Не могу сказать что меня что-то прям очень впечатлило, но вот вам пример предлагаемого интерактива.

Нажимаем на кнопку и смотрим сколько воды используется на один промпт. Учитывая, что Альтман ранее говорил что одна чайная ложка, то получается что кто-то из них врет.

Сэм или Дарио?
Почему случается гроккинг?

Представьте: вы тренируете крошечный трансформер отличить кошку от ягуара.
После 100 000 шагов ‒ на трейне всё идеально, на тесте — худо-бедно 55 %.
Уже готовы махнуть рукой… и вдруг на 101 000-м шаге точность подпрыгивает до 99 %.
Это «внезапное прозрение» и называется grokking.


Grokking — момент, когда модель перестаёт тупо запоминать примеры и внезапно все понимает, из-за чего точность на тесте взлетает. Феномен был известен с 2021 года, но до сих пор было не до конца понятно почему так происходит.

Свежее исследование убедительно показывает, что гроккинг случается после того, как сеть забила всю свою память - «внутреннюю флешку» сырыми данными и вынуждена перейти к их сжатию.

Как оно работает
1. Копирование.
Пока энтропия данных меньше ≈ 3,5–4 бита на параметр, дешевле «запекать» каждый пример прямо в веса. Train-loss → 0, test-loss почти не падает.
2. Флешка переполнена.
Новые байты не влазят. Градиенту выгоднее искать закономерности, которые приведут к снижению ошибки сразу на нескольких примерах.
3. Озарение (grokking).
Сеть «сжимает» знания, выбрасывая случайные детали. Test-loss резко падает.

Сколько это «3,5–4 бита»?

Миллион параметров = ~0,5 МБ на диске.
Это меньше одной фотки с телефона — место заканчивается удивительно быстро, вот почему grokking ловят даже на игрушечных датасетах.

Что делать практику

Учите дольше, чем кажется нужным. Магический скачок может прийти после тысяч лишних шагов.

Добавьте данных. Если сеть забуксовала, удвойте датасет: ей надо «упереться в потолок памяти», прежде чем она начнёт обобщать.

Одна метафора, чтобы запомнить

Нейронка — ноут с крошечным SSD и автоматическим ZIP: пока место есть, хранит RAW-фото, а как забьётся — начинает архивировать зипом.

🤓 Полная статья

А вы уже сталкивались с grokking в своих проектах?
Расскажите в комментариях — интересно, после скольких шагов «прозрело» у вас 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 Boltz-2 модель от MIT для предсказания взаимодействия белков с физикой на борту

Недавно MIT релизнули свою фундаментальную модель для предсказания структур и взаимодействий белков. Она ближе всего к AlphaFold3 из опенсорсных моделей и впервые приближается по точности к физическим (и крайне вычислительно дорогим) методам, таким как Free Energy Perturbation (FEP) будучи в 1000 раз быстрее.

TLTR:
Bolz-2 - это многоцелевой трансформер, обученный на структурных и биофизических данных:
Boltz-2 может:
• Предсказать структуру нового белка, мутанта или комплекса
• Смоделировать гибкость и взаимодействия
• Найти сайты связывания и офф-таргеты
• Ускорить hit-to-lead без мокрого скрининга
• Сильно упростить драг дизайн

Почему быстрее симуляций физики - потому что на основе эмбеддингов, структур и distillation из molecular dynamics (MD).

Теперь подробнее.
Немного о FEP.
Free Energy Perturbation (FEP) позволяет оценить, как изменится энергия связывания при модификации лиганда.

Работает так. Надо:
1. Смоделировать лиганд в комплексе с белком (bound state)
2. Смоделировать его отдельно (unbound state)
3. Прокрутить переход между ними (через «λ»-coupling parameter)
4. Получить ΔΔG - изменение свободной энергии связывания

Метод суперточный, но оооочень медленный, т.к требует атомистических симуляций в стиле молекулярной динамики (MD). Именно здесь Boltz-2 делает революцию: сравнимая точность на порядок быстрее и доступнее.

📐 Архитектура Boltz-2 состоит из 4 модулей:
1. Trunk (основной стек)
Обрабатывает входную последовательность, использует attention-механизмы (PairFormer аналогично AlphaFold).
2. Denoising + Steering.
Тут добавлены физические потенциалы (Boltz-steering), исправляющие стерические конфликты в структурах (это когда отталкивающеся по законам физики молекулы в предсказании оказываются слеплены вместе). В этом была проблема других моделей.

3. Confidence Module
Оценивает уверенность в предсказаниях (ipTM).
Поддерживает режимы NMR, MD, Cryo-EM (экспериментальные методы)

4. Affinity Module
С двумя головами: бинарная классификация (binder/non-binder) и регрессия по аффинности (log10 от IC50).

📈 Результаты
🔬 Структура:
• Лучше Boltz-1 на сложных системах (RNA, TCR, антитела)
• Сопоставим с AlphaFlow, BioEmu по RMSF

💊 Аффинность:
• Близко к FEP+ (R=0.78), но в 1000× быстрее.
• Побеждает всех участников CASP16 affinity challenge без дообучения.

🧪 Проспективный скрининг:
В статье использовали GFlowNet-агента (SynFlowNet) как генератор молекул для выбранной цели (TYK2).
1. SynFlowNet сгенерили молекулы (sample space из Enamine REAL — 76 миллиардов синтезируемых кандидатов)
2. Эти молекулы оценили Boltz-2 по двум метрикам:
• Вероятность связывания (binding likelihood)
• Предсказанная аффинность (affinity value)
3. Это использовали как reward для обучения генератора
4. Затем вторично валидировали с помощью FEP (Boltz-ABFE)

Итог: ИИ-агент находит новые, синтезируемые, высокоаффинные связующие для цели.

⚠️ Ограничения. Не заменяет эксперимент. Это приоритизация, а не подтверждение, т.к:
1. Не учитывает кофакторы
вода, ионы, белки рядом могут критично влиять на связывание белков.
2. Если модель ошибается в локализации сайта связывания - всё, нерелевантные предсказание аффинности.
3. Большие структурные изменения белков при связывании не предсказываются корректно

Как упростить драг дизайн.
Drug discovery отходит от гипотезы "silver bullet", когда нужно найти малую молекулу, которая пофиксит болезнь. Дизайн лекарств - это создание функциональных комплексов. Например self-assembly биосовместимых полимеров, которые сворачиваются в капсулу размером 50нм, ее функциализируют лигандами (пептидами, антителами, белками). В нее упаковывают действующее вещество (какую-нидь токсичную молекулу-киллера раковых клеток, напр).
Поскольку эти наночастицы функционализированы лигандами - вот их взаимодействие с белками можно моделировать через Boltz-2:
NP-ligand → Boltz-2 → target binding как часть более крупного пайплайна.

Похоже, уже моделируют: спустя неделю 3k stars, >400 forks

Код
Статья
Блог
Slack
community
2025/06/24 18:44:48
Back to Top
HTML Embed Code: