📢 Всем привет!
🙋 Меня зовут Миле Митрович и я рад приветствовать вас на канале "ML with MiLE"
🧑💻🧑🎓 Я исполнительный директор по исследованию данных в Sber AI Lab (Сбербанк). Обладатель PhD в области искусственного интеллекта. Являлся соучредителем 3 стартапов в области искусственного интеллекта в Германии, Сербии и Канаде. Родом из Сербии, но уже несколько лет прожил в Москве. Являюсь членом Serbian AI Society.
📢 На этом канале буду делится новостями из мира искусственного интеллекта и своей жизнью инженера и исследователя.
🙂 Присоединяйтесь!
🙋 Меня зовут Миле Митрович и я рад приветствовать вас на канале "ML with MiLE"
🧑💻🧑🎓 Я исполнительный директор по исследованию данных в Sber AI Lab (Сбербанк). Обладатель PhD в области искусственного интеллекта. Являлся соучредителем 3 стартапов в области искусственного интеллекта в Германии, Сербии и Канаде. Родом из Сербии, но уже несколько лет прожил в Москве. Являюсь членом Serbian AI Society.
📢 На этом канале буду делится новостями из мира искусственного интеллекта и своей жизнью инженера и исследователя.
🙂 Присоединяйтесь!
Forwarded from LightAutoML framework
Привет! Помимо работы над LightAutoML, мы занимаемся и следим за многими другими темами в области ML.
Завтра сотрудник нашей команды Миле Митрович выступит на научном семинаре с обзорным докладом на тему агентов, ждем вас онлайн!
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ИИ песочница
🤖 From LLMs to AI Agents
Запускаем открытые семинары про AI, и первый уже скоро!
6 марта в 17:00 Миле Митрович (Sber AI Lab) расскажет, как LLM выходят за рамки чат-ботов и становятся частью агентных систем
Что обсудим:
🔘 Сильные и слабые стороны LLM…
Запускаем открытые семинары про AI, и первый уже скоро!
6 марта в 17:00 Миле Митрович (Sber AI Lab) расскажет, как LLM выходят за рамки чат-ботов и становятся частью агентных систем
Что обсудим:
🔘 Сильные и слабые стороны LLM…
📢 Alibaba обучила QwQ 32b с RL который достигает уровень Deepseak-R1 671b в ризонинг и кодинг. Это означает, что 20 раз меньшая модель достигает тоже самую точность. 🤔
👌 Также говорят что они активно исследуют использование агентов с RL чтобы обеспечило long-horizon резонинг с масштабированием времени инференса
https://qwenlm.github.io/blog/qwq-32b/
👌 Также говорят что они активно исследуют использование агентов с RL чтобы обеспечило long-horizon резонинг с масштабированием времени инференса
https://qwenlm.github.io/blog/qwq-32b/
Qwen
QwQ-32B: Embracing the Power of Reinforcement Learning
QWEN CHAT Hugging Face ModelScope DEMO DISCORD
Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve…
Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve…
📢 Inception Labs представила Mercury, первую коммерческую диффузионную LLM, которая генерирует текст параллельно, а не последовательно, как другие авторегрессионные модели.
👉 Таким образом, она делает инференс с очень высокой скоростью. Она может генерировать более 1000 токенов в секунду на GPU H100, что в 5-10 раз быстрее авторегрессионных LLM
👌 Тесты показывают, что генерирует токены очень быстро. Похоже на будущее LLM-ках
https://www.inceptionlabs.ai/
👉 Таким образом, она делает инференс с очень высокой скоростью. Она может генерировать более 1000 токенов в секунду на GPU H100, что в 5-10 раз быстрее авторегрессионных LLM
👌 Тесты показывают, что генерирует токены очень быстро. Похоже на будущее LLM-ках
https://www.inceptionlabs.ai/
www.inceptionlabs.ai
Inception Labs
We are leveraging diffusion technology to develop a new generation of LLMs. Our dLLMs are much faster and more efficient than traditional auto-regressive LLMs. And diffusion models are more accurate, controllable, and performant on multimodal tasks.
Привет всем!
📢 Сегодня в 17ч в ТеДо состоится панельная дискуссия по LLM-Агентах. В том числе один из спикеров буду я.
👉 Присоединяйтесь по ссылке
📢 Сегодня в 17ч в ТеДо состоится панельная дискуссия по LLM-Агентах. В том числе один из спикеров буду я.
👉 Присоединяйтесь по ссылке
Telegram
Технологии Доверия
Эти спецагенты незаметны, но невероятно популярны. Вы каждый день сталкиваетесь с результатами их работы, но можете даже не знать об этом. Речь о LLM-агентах — одной из наиболее динамично развивающихся областей ИТ.
📅10 марта мы соберем экспертов по data…
📅10 марта мы соберем экспертов по data…
This media is not supported in your browser
VIEW IN TELEGRAM
📢 В понедельник (10. марта) в Технологии Доверия (ТеДо) прошла панельная дискуссия на тему LLM-агентах.
⚡Среди спикеров, таких как Юрий Симонов, Валентин Малых, Марк Паненко и Антон Воронов, я принял участие.
👆Не много атмосфери можно увидет на видео.
👌 Большое спасибо Юрию и команде ТеДо за отличную организацию!
⚡Среди спикеров, таких как Юрий Симонов, Валентин Малых, Марк Паненко и Антон Воронов, я принял участие.
👆Не много атмосфери можно увидет на видео.
👌 Большое спасибо Юрию и команде ТеДо за отличную организацию!
📢 Уже завтра в Сколково пройдет IT Purple Conf.
🥁 Я буду одним из спикеров, где буду рассказывать на тему LLMs и AI Agents.
🤝 Если вы будете на конференции завтра, буду рад встретиться!
🥁 Я буду одним из спикеров, где буду рассказывать на тему LLMs и AI Agents.
🤝 Если вы будете на конференции завтра, буду рад встретиться!
📢 Yann LeCun и его команда представили Dynamic Tanh (DyT) в качестве замены традиционных слоев нормализации в моделях глубокого обучения. Этот новый подход, основанный на функции масштабированного tanh, показывает производительность, сравнимую или превосходящую такие методы, как LayerNorm и RMSNorm. Самым захватывающим аспектом является его потенциал для снижения вычислительных затрат при сохранении эффективности модели.
🤔 DyT заменяет слои нормализации масштабированной функцией tanh (tanh(αx)), где параметр α (альфа) управляет коэффициентом масштабирования функции tanh. DyT имитирует поведение слоев нормализации, сжимая экстремальные значения, сохраняя линейный центр
Преимущества:
👉 DyT снижает затраты на обучение и инференс.
👉 Требуется только один обучаемый параметр масштабирования (α).
👉 Работает быстрее, чем RMSNorm на графических процессорах H100
🤔 DyT заменяет слои нормализации масштабированной функцией tanh (tanh(αx)), где параметр α (альфа) управляет коэффициентом масштабирования функции tanh. DyT имитирует поведение слоев нормализации, сжимая экстремальные значения, сохраняя линейный центр
Преимущества:
👉 DyT снижает затраты на обучение и инференс.
👉 Требуется только один обучаемый параметр масштабирования (α).
👉 Работает быстрее, чем RMSNorm на графических процессорах H100
arXiv.org
Transformers without Normalization
Normalization layers are ubiquitous in modern neural networks and have long been considered essential. This work demonstrates that Transformers without normalization can achieve the same or better...
📢 В субботу (15 марта) в Сколково прошла конференция IT Purple Conf. Конференция привлекла множество специалистов и студентов из разных городов России и зарубежья.
🥁 Я был спикером и выступил с докладом про LLMs и AI Agents.
👆 Немного атмосферы вы можете увидеть на фотографиях.
😊 Я был рад новым знакомством и встречи с старыми друзьями :)
🥁 Я был спикером и выступил с докладом про LLMs и AI Agents.
👆 Немного атмосферы вы можете увидеть на фотографиях.
😊 Я был рад новым знакомством и встречи с старыми друзьями :)
После моего выступления на открытом семинаре Sber AI Lab (6. марта) было много хороших отзывов и вопросов о записи.
👉 Запись выступления вы можете посмотреть сейчас по ссылке.
👉 Запись выступления вы можете посмотреть сейчас по ссылке.
VK Видео
From LLMs to AI Agents
Рассказ о преимуществах и недостатках больших языковых моделей. Как компаунд системы искусственного интеллекта улучшают использование больших языковых моделей. Что такое ИИ-агенты и какую роль играют большие языковые модели в агентских системах.
🥁 Майские праздники давно прошли и пришло время новых рабочих побед. Уже завтра стартует Data Fest, но в этом году впервые у меня дома в Сербии в Белграде 🥳 🇷🇸
🤝 Буду рад встрече, если вы планируете приехать на трек в Белград! Если нет, ждите фотографии атмосферы из Белграда 👌
А вы собираетесь посетить Data Fest в этом году?
🤝 Буду рад встрече, если вы планируете приехать на трек в Белград! Если нет, ждите фотографии атмосферы из Белграда 👌
А вы собираетесь посетить Data Fest в этом году?
🛰️ Как и обещал, делюсь фотографиями и атмосферой с Data Fest в Яндексе в Белграде.
🏋️ Вместе с Лёшей @AleXXL1986, мы из Sber AI Lab выступали с докладомы про наши open source библиотеки и различные подходы к улучшению reasoning в LLM.
🍾 В целом, программа была очень насыщенной: среди самых интересных запомнились выступления о применении VLM в продуктах Яндекса, кейсы с умным помощником для Яндекс Лавки и очень необычный проект по обучению межславянской языковой модели. Помимо содержательных докладов, на фестивале царила по-настоящему дружеская и вдохновляющая атмосфера — яркие дискуссии, новые знакомства и море свежих идей!
🥇 Особенно выделю квиз по тематике Data Science — это было не только увлекательно, но и азартно, ведь нашей команде удалось победить!
🏋️ Вместе с Лёшей @AleXXL1986, мы из Sber AI Lab выступали с докладомы про наши open source библиотеки и различные подходы к улучшению reasoning в LLM.
🍾 В целом, программа была очень насыщенной: среди самых интересных запомнились выступления о применении VLM в продуктах Яндекса, кейсы с умным помощником для Яндекс Лавки и очень необычный проект по обучению межславянской языковой модели. Помимо содержательных докладов, на фестивале царила по-настоящему дружеская и вдохновляющая атмосфера — яркие дискуссии, новые знакомства и море свежих идей!
🥇 Особенно выделю квиз по тематике Data Science — это было не только увлекательно, но и азартно, ведь нашей команде удалось победить!