В нвидии не смогли принять что ллмный РЛ ВСЁ и поресечили на тему того, чтобы RL не схлопывал pass@k у базовой модельки.
Что предлагают - тюнить 2к шагов и применяют модификации из статьи DAPO (асимметричные клипы 0.8, 1.4) учили с высокой температурой 1.2 с чтобы энтропия не сильно падала (сохранять как можно дольше эксплорейшен у ллмки) + во время трена динамически подбирают сложность задачки (отсекают задачки которые моделька всегда решает и которые не решает во время трена) + использовали KL штраф межд реф и полиси (пишут, что все же KL лучше не убирать, как рекомендуют в некоторых статьях).
Тюнили дипсик 1.5 дистил на искусственных логических задачках и матеше + кодовых из уже известных датасетов.
В результате пишут что увидели генерализацию на задачку, которой не было в трейне и которую базовая моделька совсем не могла решать. + генерализовалась на графовых задачках на бОльшие размеры графа.
Сравнивали базовую модельку с промежуточным и финальным чекпоинтами:
- были задачки где pass@k слегка схлопнулся (авторы считают, что моделька уже видело слишком много таких задач и дотрен не помогает)
- плато (на промежуточном чекпоенте pass@1 - pass@128 улучшились к промежуточному чекпоинту и на финальном почти не изменились)
- pass@k улучшался до конца с рлем.
Но правда трен такой много ресурсов требует (пишут что 16к гпу часов на 4 x 8xNVIDIA-H100-80GB для 1.5B)
Крч надо учиться делать правильный РЛ (и пробовать скейлить).
ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language Models
https://arxiv.org/abs/2505.24864
https://www.alphaxiv.org/ru/overview/2505.24864
PS кстати заходите в https://www.group-telegram.com/researchim там собираем инфу по ИИшечке и проектики делаем (в том числе по генерации логических задачек синтетических)
Что предлагают - тюнить 2к шагов и применяют модификации из статьи DAPO (асимметричные клипы 0.8, 1.4) учили с высокой температурой 1.2 с чтобы энтропия не сильно падала (сохранять как можно дольше эксплорейшен у ллмки) + во время трена динамически подбирают сложность задачки (отсекают задачки которые моделька всегда решает и которые не решает во время трена) + использовали KL штраф межд реф и полиси (пишут, что все же KL лучше не убирать, как рекомендуют в некоторых статьях).
Тюнили дипсик 1.5 дистил на искусственных логических задачках и матеше + кодовых из уже известных датасетов.
В результате пишут что увидели генерализацию на задачку, которой не было в трейне и которую базовая моделька совсем не могла решать. + генерализовалась на графовых задачках на бОльшие размеры графа.
Сравнивали базовую модельку с промежуточным и финальным чекпоинтами:
- были задачки где pass@k слегка схлопнулся (авторы считают, что моделька уже видело слишком много таких задач и дотрен не помогает)
- плато (на промежуточном чекпоенте pass@1 - pass@128 улучшились к промежуточному чекпоинту и на финальном почти не изменились)
- pass@k улучшался до конца с рлем.
Но правда трен такой много ресурсов требует (пишут что 16к гпу часов на 4 x 8xNVIDIA-H100-80GB для 1.5B)
Крч надо учиться делать правильный РЛ (и пробовать скейлить).
ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language Models
https://arxiv.org/abs/2505.24864
https://www.alphaxiv.org/ru/overview/2505.24864
PS кстати заходите в https://www.group-telegram.com/researchim там собираем инфу по ИИшечке и проектики делаем (в том числе по генерации логических задачек синтетических)
Применение_искусственного_интеллекта_в_биологии_итоги_2023–2025.pdf
1.6 MB
небольшой чатгптшный ресечик по ии в биологии
Прям понравился
Прям понравился
Channel allows Direct Messages for 🕺 🕺 🕺 each
Please open Telegram to view this post
VIEW IN TELEGRAM
Кстати, там же курсор до 1.0 версии апдейтнулся.
Background агенты, работа с юпитер ноутбуками, mcpшки, память
(пока ничего из этого толком не потестил, но так пишут)
А так базово пока отличий от 0.5 (предыдущей версии) не увидел. Работает в целом🎹
https://www.cursor.com/changelog
Background агенты, работа с юпитер ноутбуками, mcpшки, память
(пока ничего из этого толком не потестил, но так пишут)
А так базово пока отличий от 0.5 (предыдущей версии) не увидел. Работает в целом
https://www.cursor.com/changelog
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Еще парочка свежих чатгпт ресечей
ии + финтех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_Fintech_research.md
ии + агротех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_AgriTech_research.md
Там и другие в репозитории имеются
И не забывайте заглядывать в https://www.group-telegram.com/researchim где собираем все по ИИшечке и проектики делаем
ии + финтех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_Fintech_research.md
ии + агротех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_AgriTech_research.md
Там и другие в репозитории имеются
И не забывайте заглядывать в https://www.group-telegram.com/researchim где собираем все по ИИшечке и проектики делаем
GitHub
state-of-ai/AI_Fintech_research.md at main · researchim-ai/state-of-ai
По возможности актуальная информация по ИИ + ресерчи от ChatGPT - researchim-ai/state-of-ai
Выступление Ричарда Саттона про эру экспиренса и его видением будущего иишки и рля
https://www.youtube.com/live/f9KDMFZqu_Y
https://www.youtube.com/live/f9KDMFZqu_Y
YouTube
NUS120 Distinguished Speaker Series | Professor Richard Sutton
About NUS120
The National University of Singapore celebrates its 120th anniversary in 2025, commemorating a legacy, forged over generations, of excellence, innovation and service.
As Singapore’s first higher education institution and its flagship university…
The National University of Singapore celebrates its 120th anniversary in 2025, commemorating a legacy, forged over generations, of excellence, innovation and service.
As Singapore’s first higher education institution and its flagship university…
А вот и опенсурс ризонер от Мистраля
https://huggingface.co/mistralai/Magistral-Small-2506
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Макс контекст 128к, но пишут что послевархаммер 40к может начать тупить
https://huggingface.co/mistralai/Magistral-Small-2506
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Макс контекст 128к, но пишут что после
huggingface.co
mistralai/Magistral-Small-2506_gguf · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Нам предлагают не просто предсказывать следующий токен, а еще поразмышлять перед этим. Reinforced Pre-Training (RPT)
Есть последовательность токенов x_{<t}, моделька генерит рассуждение (цепочку токенов) c_t и еще конечную цепочку (там может быть один или несколько токенов) y_t.
Смотрим, чтобы y_t было точным префиксом истинного продолжения из данных. Если да, то ревард 1, если нет, то 0.
В качестве датасета для тюна взяли OmniMATH (4.4к семплов с ответами). Нарезали на контекст и продолжения с использованием фильтра по энтропии прогоняя через прокси модельку R1 дистил 1.5B модельку.
Как я понимаю: берут каждый пример из трейна, прогоняют через прокси 1.5B модельку, для каждого следующего токена берут топ 16 самых вероятных, если энтропия на них больше порога (его не уточнили), то здесь будут тюнить. (наверное делают перенормировку по топ 16 токенам и нормализацию по энтропии и сверяют с порогом)
На этом тюнили Deepseek R1 Distill 14B с GRPO.
Авторы пишут что моделька потюненая RPT больше использует слов присущим построению гипотез (probably, maybe, assume) и логическому выводу (therefore, logically, conclude), чем базовая моделька. При этом меньше раскладывает задачи на подзадачи.
Вероятно потому, что обычно в ризонинге учим раскладывать сложные задачи на простые шаги. А при RPT видать учится "рассуждать" наперед.
Ну и такой подход вроде докидывает.
Так понял. В целом показалось интересным. Увидим будут ли раскручивать подход и больше экспериментов надо
Reinforcement Pre-Training
https://arxiv.org/abs/2506.08007
https://www.alphaxiv.org/ru/overview/2506.08007
PS кстати заходите в https://www.group-telegram.com/researchim мы там ИИнфу собираем и теперь уже много всяких проектиков делаем
Есть последовательность токенов x_{<t}, моделька генерит рассуждение (цепочку токенов) c_t и еще конечную цепочку (там может быть один или несколько токенов) y_t.
Смотрим, чтобы y_t было точным префиксом истинного продолжения из данных. Если да, то ревард 1, если нет, то 0.
В качестве датасета для тюна взяли OmniMATH (4.4к семплов с ответами). Нарезали на контекст и продолжения с использованием фильтра по энтропии прогоняя через прокси модельку R1 дистил 1.5B модельку.
Как я понимаю: берут каждый пример из трейна, прогоняют через прокси 1.5B модельку, для каждого следующего токена берут топ 16 самых вероятных, если энтропия на них больше порога (его не уточнили), то здесь будут тюнить. (наверное делают перенормировку по топ 16 токенам и нормализацию по энтропии и сверяют с порогом)
На этом тюнили Deepseek R1 Distill 14B с GRPO.
Авторы пишут что моделька потюненая RPT больше использует слов присущим построению гипотез (probably, maybe, assume) и логическому выводу (therefore, logically, conclude), чем базовая моделька. При этом меньше раскладывает задачи на подзадачи.
Вероятно потому, что обычно в ризонинге учим раскладывать сложные задачи на простые шаги. А при RPT видать учится "рассуждать" наперед.
Ну и такой подход вроде докидывает.
Так понял. В целом показалось интересным. Увидим будут ли раскручивать подход и больше экспериментов надо
Reinforcement Pre-Training
https://arxiv.org/abs/2506.08007
https://www.alphaxiv.org/ru/overview/2506.08007
PS кстати заходите в https://www.group-telegram.com/researchim мы там ИИнфу собираем и теперь уже много всяких проектиков делаем
Биологические на месте?
Там ребята выложили опенсурсную биомодельку Boltz-2
Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:
В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.
Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq
И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally
Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf
пост
https://boltz.bio/boltz2
код для запуска
https://github.com/jwohlwend/boltz
моделька
https://huggingface.co/boltz-community/boltz-2
PS собираем ИИнформацию и проекты делаем в https://www.group-telegram.com/researchim
Там ребята выложили опенсурсную биомодельку Boltz-2
Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:
Boltz-2 — это «универсальный движок» именно для задач структурной биологии и дизайна лекарств
Что делает?
- Строит форму белка, РНК/ДНК и лигандов в одном комплексе.
- Сразу оценивает силу связывания (Ki/Kd/IC50-подобную) — т.е. подсказывает, какая молекула будет держаться крепче.
- Всё это за ~20 с на одной видеокарте, тогда как классический FEP тратит часы-дни.
Чем полезен на практике?
- Быстрый фильтр миллионов соединений в виртуальном скрининге.
- Точная ранжировка близких аналогов на стадии hit-to-lead.
- Генерация новых молекул вместе с GFlowNet — модель сама предлагает, что синтезировать.
Boltz-2 — мощный, быстрый и открытый инструмент именно для 3-D структур и связывания
В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.
Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq
И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally
Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf
пост
https://boltz.bio/boltz2
код для запуска
https://github.com/jwohlwend/boltz
моделька
https://huggingface.co/boltz-community/boltz-2
PS собираем ИИнформацию и проекты делаем в https://www.group-telegram.com/researchim
Если вы хотели узнать побольше про TPU (это которые в Гугле например используют) и чем они от GPU отличаются, то вот тут интересно написали
https://henryhmko.github.io/posts/tpu/tpu.html
https://henryhmko.github.io/posts/tpu/tpu.html
Я там погенерил с o3 примеров на куда и opencl в учебных целях, пока не супер продвинутых. Под линуксом собирается.
Для куды нужна нвидия видюшка. OpenCL на всем должно запуститься.
Вероятно буду со временем еще наполнять https://github.com/researchim-ai/gpu-school
А проектики делаем в https://www.group-telegram.com/researchim
Для куды нужна нвидия видюшка. OpenCL на всем должно запуститься.
Вероятно буду со временем еще наполнять https://github.com/researchim-ai/gpu-school
А проектики делаем в https://www.group-telegram.com/researchim
GitHub
GitHub - researchim-ai/gpu-school
Contribute to researchim-ai/gpu-school development by creating an account on GitHub.
Как насчет
Meta-Stable Entangled Quantum-GAN Swarm: Blockchain-Anchored Hyperdimensional Reinforcement Learning for Holographic Sector Rotation across Exo-Metaverse Markets
Работа исследует гибридный мульти-агентный подход, сочетающий квантовые вычисления, гипермерное RL и генеративные модели, — для предсказания, планирования и автоматического ротационного перераспределения капитала между «физическими» секторами фондового рынка и их цифровыми «двойниками» в метавселенных.
Если напишете - меня в соавторы пж😎
Meta-Stable Entangled Quantum-GAN Swarm: Blockchain-Anchored Hyperdimensional Reinforcement Learning for Holographic Sector Rotation across Exo-Metaverse Markets
Работа исследует гибридный мульти-агентный подход, сочетающий квантовые вычисления, гипермерное RL и генеративные модели, — для предсказания, планирования и автоматического ротационного перераспределения капитала между «физическими» секторами фондового рынка и их цифровыми «двойниками» в метавселенных.
Если напишете - меня в соавторы пж
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Vikhr models
QVikhr-3-4B-Instruction
Еще одна модель на базе Qwen 3. Тесты производительности подтверждают значительные улучшения модели. В Ru Arena General, QVikhr-3-4B-Instruction получила оценку 78.2, что существенно превосходит результат базовой модели Qwen3-4B (64.8).
🔗 Карточка модели: https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction
🔗 GGUF (скоро): https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction-GGUF
⚖️ Лицензия: apache-2.0
👥 Авторы: @LakoMoorDev @nlpwanderer
Еще одна модель на базе Qwen 3. Тесты производительности подтверждают значительные улучшения модели. В Ru Arena General, QVikhr-3-4B-Instruction получила оценку 78.2, что существенно превосходит результат базовой модели Qwen3-4B (64.8).
🔗 Карточка модели: https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction
🔗 GGUF (скоро): https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction-GGUF
⚖️ Лицензия: apache-2.0
👥 Авторы: @LakoMoorDev @nlpwanderer