Вот как изменилась доля трафика на рынке ИИ за последние полгода:
🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
⚡ Claude: 1,6%
🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%
🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
⚡ Claude: 1,2%
🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
⚡ Claude: 1,4% (+0,2%)
Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.
@ai_machinelearning_big_data
#GenAI #ТрендыРынка
🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
⚡ Claude: 1,6%
🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%
🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
⚡ Claude: 1,2%
🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
⚡ Claude: 1,4% (+0,2%)
Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.
@ai_machinelearning_big_data
#GenAI #ТрендыРынка
Magistral — первая модель рассуждений от Mistral AI. Она сочетает глубокую логическую обработку с возможностью отслеживать каждый шаг её «мышления».
Модель получила поддержку 8 языков, включая русский и выпущена в 2 вариантах:
Внутри Magistral работает в режиме рассуждений, разбивая задачи на цепочки логических шагов, а Flash Answers ускоряет вывод в 10 раз по сравнению с конкурентами. Для интеграции в рабочие процессы модель умеет взаимодействовать с внешними инструментами (API или базами данных).
В тестах Magistral Medium показал 73,6% точности на задачах AIME2024, демонстрируя силу в физических симуляциях и математических расчетах.
Для разработчиков доступны версии на Hugging Face, AWS и IBM WatsonX, а в будущем — на Azure и Google Cloud. Демо Magistral доступно в интерфейсе Le Chat или по API в La Plateforme.
@ai_machinelearning_big_data
#AI #ML #LLM #Magistral #MistralAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Гендир OpenAI объявил о снижении цены на o3 на 80% и намекнул на предстоящий выпуск o3-pro.
Говорит, что нам понравится соотношение цена\перфоманс у о3-pro.
Пост Sam Altman в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
В экспертных оценках тестировщики отдают предпочтение OpenAI o3-pro по сравнению с o3.
https://x.com/OpenAI/status/1932530409684005048
@ai_machinelearning_big_data
#chatgpt #openai #o3pro
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
OpenAI договорилась с Google Cloud о поставках вычислительных ресурсов для тренировки и запуска своих моделей - неожиданный шаг для конкурентов в сфере ИИ. Ранее OpenAI зависела от Microsoft Azure, но теперь диверсифицирует поставщиков, заключив сделки с Oracle и SoftBank на $500 млрд для проекта Stargate.
Google предоставит доступ к собственным чипам TPU, которые ранее использовались только внутри компании. Это усиливает позиции Google Cloud, конкурирующего с Amazon и Microsoft за клиентов среди ИИ-стартапов. Внутренние проблемы с мощностями у Google и одновременная конкуренция через DeepMind создают сложные задачи для управления ресурсами в новом партнерстве.
reuters.com
IBM заявила о планах построить первый в истории крупномасштабный квантовый компьютер Quantum Starling до конца десятилетия. Он будет в 20 тысяч раз мощнее современных квантовых систем, используя новые методы исправления ошибок — коды qLDPC и реальное время коррекции с помощью классических вычислений.
Аналитики осторожны: коммерческая выгода пока неочевидна, а детали запуска систем туманны. Тем не менее, IBM подчеркивает, что ее дорожная карта самая прозрачная в индустрии, призывая разработчиков готовить алгоритмы для будущих машин.
wsj.com
Цукерберг анонсировал создание новой лаборатории по исследованию «суперинтеллекта» — гипотетической ИИ-системы, превосходящей возможности человеческого мозга. В рамках проекта, она договорилась о сотрудничестве с Алексом Ваном, основателем Scale AI, и планирует инвестировать в его компанию, одновременно переманивая ключевых специалистов.
Источники сообщают, что компания Марка Цукерберга предлагает исследователям из OpenAI, Google и других крупных компаний зарплаты от сотен тысяч до миллионов долларов. Это часть масштабной перестройки ИИ-направления, которое столкнулось с внутренними конфликтами, текучкой кадров и неудачными запусками продуктов.
nytimes.com
Qualcomm анонсировала процессор Snapdragon AR1+ Gen 1 для умных очков, способный запускать ИИ без подключения к облаку или смартфону. Это позволяет пользователям использовать функции голосового ассистента или отображения текста прямо на стеклах без дополнительных устройств. Чип на 28% компактнее предыдущей версии, что позволяет уменьшить размеры оправы на 20%.
Новинка поддерживает бинокулярное изображение, стабилизацию и обработку нескольких кадров одновременно. Главная фишка - NPU третьего поколения, способный запускать небольшие модели локально.
engadget.com
Традиционный подход к очистке данных перед обучением LLM оказался не самым эффективным. Ученые выяснили, что добавление небольшого количества провокационного контента из 4chan (до 10%) улучшает «детоксикацию» моделей на поздних этапах. Модель Olmo-1B, обученная на смеси токсичных постов и чистого датасета C4, показала, что ядовитые идеи в модели становятся четче, а значит — их проще подавлять.
Методы вроде коррекции при генерации текста работают точнее, если модель «видела» токсичность заранее. Однако переизбыток 4chan-данных сводит эффект к нулю: модель становится агрессивной и сложной для контроля.
Исследователи предполагают, что аналогичный подход применим к другим «чувствительным» темам — от стереотипов до политики.
arxiv.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🎥 Веса и инференс для SeedVR2 — многообещающей модели для восстановления видео.
🛠️ Что это?
SeedVR2 — одношаговая диффузионная модель для восстановления видео, которая проходит пост-тренировку в противоборстве с реальными данными.
Она показывает отличные результаты даже на высоком разрешении.
🔍 Зачем нужна SeedVR2?
Обычные модели плохо справляются с AIGC и реальными видео — особенно в мелких деталях вроде текста и лиц.
Даже продвинутые диффузионные методы, использующие ControlNet или адаптеры, работают только на фиксированном разрешении (512, 1024) и требуют нарезки видео на перекрывающиеся патчи. Это:
• сильно замедляет работу
• усложняет обработку длинных и больших видео
🚀 Что нового в SeedVR2:
• Восстановление на любом разрешении без заранее обученного диффузионного приоритета
• Архитектура с крупным диффузионным трансформером, обученным с нуля
▪Github: https://github.com/ByteDance-Seed/SeedVR
x
▪ Веса: https://huggingface.co/ByteDance-Seed/SeedVR-Models
@ai_machinelearning_big_data
#news #ai #ml #ByteDance #video
🛠️ Что это?
SeedVR2 — одношаговая диффузионная модель для восстановления видео, которая проходит пост-тренировку в противоборстве с реальными данными.
Она показывает отличные результаты даже на высоком разрешении.
🔍 Зачем нужна SeedVR2?
Обычные модели плохо справляются с AIGC и реальными видео — особенно в мелких деталях вроде текста и лиц.
Даже продвинутые диффузионные методы, использующие ControlNet или адаптеры, работают только на фиксированном разрешении (512, 1024) и требуют нарезки видео на перекрывающиеся патчи. Это:
• сильно замедляет работу
• усложняет обработку длинных и больших видео
🚀 Что нового в SeedVR2:
• Восстановление на любом разрешении без заранее обученного диффузионного приоритета
• Архитектура с крупным диффузионным трансформером, обученным с нуля
▪Github: https://github.com/ByteDance-Seed/SeedVR
x
▪ Веса: https://huggingface.co/ByteDance-Seed/SeedVR-Models
@ai_machinelearning_big_data
#news #ai #ml #ByteDance #video
🔥 Опубликован 65-й выпуск рейтинга TOP500 — списка самых мощных суперкомпьютеров мира
💡 Тройка лидеров осталась неизменной:
• El Capitan (США, Ливерморская нац. лаборатория):
11 млн CPU ядер (AMD EPYC + GPU AMD MI300X),
1.742 экзафлопса, ОС HPE Cray OS (SUSE Linux).
• Frontier (США, Ок-Ридж):
9 млн CPU (AMD EPYC + MI250X),
1.353 экзафлопса, ОС HPE Cray OS.
• Aurora (США, Аргонн):
9.2 млн CPU (Intel Xeon Max + GPU Max),
1.012 экзафлопса, ОС SUSE Linux Enterprise Server 15 SP4.
🔹 На 4-е место вышел JUPITER Booster (Германия):
4.8 млн ядер (NVIDIA GH200), 793 петафлопса, ОС RHEL.
🔟 **Кластеры 5–10 мест:**
- Eagle (Microsoft Azure, США): 561 петафлопс
- HPC6 (ЭНИ, Италия): 477 петафлопс
- Fugaku (Япония): 442 петафлопса
- Alps (Швейцария): 434 петафлопса
- LUMI (Финляндия): 379 петафлопс
- Leonardo (CINECA, Италия): 241 петафлопс
🇷🇺 Российские суперкомпьютеры:
- Червоненкис (Яндекс): 75 место, 21.5 петафлопса
- Галушкин (Яндекс): 102 место, 16 петафлопс
- Ляпунов (Яндекс): 120 место, 12.8 петафлопса
- Christofari Neo (Сбер): 125 место, 11.95 петафлопса
- Christofari (Сбер): 201 место
- Lomonosov 2: 495 место (в 2015 году был на 31 месте)
🌍 Страны по количеству систем:
- США: 175 кластеров (48.4% производительности)
- Китай: 47 кластеров (2%)
- Германия: 41 (8.6%)
- Япония: 39 (8.9%)
- Франция: 25 (2.4%)
- Италия: 17 (6.3%)
- Россия: 6 (0.1%)
🧠 Тренды:
- Все 500 систем используют Linux.
- Дистрибутивы: неизвестно (38.2%), RHEL (20%), Ubuntu (11.8%), Cray Linux (9.8%), CentOS (8.2%), Rocky (5.8%), SUSE (4.2%), Alma (1.6%)
- Минимальный порог входа в рейтинг: 2.44 петафлопса.
- Общее число процессорных ядер: 137.6 млн.
- С ускорителями работают 234 кластера (в основном NVIDIA A100).
🔧 Лидеры среди производителей:
- Lenovo (27.2%)
- HPE (26.4%)
- EVIDEN (11%)
- Dell EMC (8.2%)
- NVIDIA (5.4%)
🌐 Сети:
- InfiniBand — 54.2% (40.3% производительности)
- Ethernet — 32.8% (52.2%)
- Omni-Path — 6.6%
📊 Также обновлён рейтинг Graph500 (оценка задач с графами)
и интегрированы рейтинги Green500, HPCG и HPL-AI.
🔥 За 10 лет производительность Top500 выросла с 0.31 до 13.8 экзафлопсов. Для входа в Top100 теперь нужно минимум 16.59 петафлопса.
📌 Подробнее
@ai_machinelearning_big_data
#news #ai #ml
💡 Тройка лидеров осталась неизменной:
• El Capitan (США, Ливерморская нац. лаборатория):
11 млн CPU ядер (AMD EPYC + GPU AMD MI300X),
1.742 экзафлопса, ОС HPE Cray OS (SUSE Linux).
• Frontier (США, Ок-Ридж):
9 млн CPU (AMD EPYC + MI250X),
1.353 экзафлопса, ОС HPE Cray OS.
• Aurora (США, Аргонн):
9.2 млн CPU (Intel Xeon Max + GPU Max),
1.012 экзафлопса, ОС SUSE Linux Enterprise Server 15 SP4.
🔹 На 4-е место вышел JUPITER Booster (Германия):
4.8 млн ядер (NVIDIA GH200), 793 петафлопса, ОС RHEL.
🔟 **Кластеры 5–10 мест:**
- Eagle (Microsoft Azure, США): 561 петафлопс
- HPC6 (ЭНИ, Италия): 477 петафлопс
- Fugaku (Япония): 442 петафлопса
- Alps (Швейцария): 434 петафлопса
- LUMI (Финляндия): 379 петафлопс
- Leonardo (CINECA, Италия): 241 петафлопс
🇷🇺 Российские суперкомпьютеры:
- Червоненкис (Яндекс): 75 место, 21.5 петафлопса
- Галушкин (Яндекс): 102 место, 16 петафлопс
- Ляпунов (Яндекс): 120 место, 12.8 петафлопса
- Christofari Neo (Сбер): 125 место, 11.95 петафлопса
- Christofari (Сбер): 201 место
- Lomonosov 2: 495 место (в 2015 году был на 31 месте)
🌍 Страны по количеству систем:
- США: 175 кластеров (48.4% производительности)
- Китай: 47 кластеров (2%)
- Германия: 41 (8.6%)
- Япония: 39 (8.9%)
- Франция: 25 (2.4%)
- Италия: 17 (6.3%)
- Россия: 6 (0.1%)
🧠 Тренды:
- Все 500 систем используют Linux.
- Дистрибутивы: неизвестно (38.2%), RHEL (20%), Ubuntu (11.8%), Cray Linux (9.8%), CentOS (8.2%), Rocky (5.8%), SUSE (4.2%), Alma (1.6%)
- Минимальный порог входа в рейтинг: 2.44 петафлопса.
- Общее число процессорных ядер: 137.6 млн.
- С ускорителями работают 234 кластера (в основном NVIDIA A100).
🔧 Лидеры среди производителей:
- Lenovo (27.2%)
- HPE (26.4%)
- EVIDEN (11%)
- Dell EMC (8.2%)
- NVIDIA (5.4%)
🌐 Сети:
- InfiniBand — 54.2% (40.3% производительности)
- Ethernet — 32.8% (52.2%)
- Omni-Path — 6.6%
📊 Также обновлён рейтинг Graph500 (оценка задач с графами)
и интегрированы рейтинги Green500, HPCG и HPL-AI.
🔥 За 10 лет производительность Top500 выросла с 0.31 до 13.8 экзафлопсов. Для входа в Top100 теперь нужно минимум 16.59 петафлопса.
📌 Подробнее
@ai_machinelearning_big_data
#news #ai #ml
AI-инфраструктура Авито: практические решения для LLM и VLM
На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.
Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.
Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.
Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.
Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.
На Data Fest 2025 команда Авито показала, как устроена их внутренняя ML разработка. В основе большинства продуктовых ИИ-решений — собственная языковая модель A-Vibe (до 7 млрд параметров, обучена на 700 млрд токенов). Для нее специально сделали токенизатор под русский язык — он обрабатывает тексты на 29% эффективнее стандартных. Это позволило в два раза ускорить работу модели. A-Vibe уже работает в продакшене и заняла первое место среди моделей до 7 миллиардов параметров в бенчмарке МЕРА.
Для техподдержки сделали инструмент на базе LLM: он переписывает ответы агентов, чтобы они звучали более эмпатично и по-человечески, и саммаризует обращения при передаче между сотрудниками. Агенты довольны: 97% отметили, что стало удобнее.
Под все это в Авито построили свою ML-платформу. В ней есть хранилище признаков для моделей, система разметки с проверкой качества и решение Aqueduct — оно встраивается прямо в модель и экономит до 30% ресурсов на инференсе. Платформа уже позволяет запускать продакшен-модели без программирования, через no-code интерфейс.
Стажеры тоже работают с реальными задачами — например, обучают модели с нуля и оптимизируют пайплайны. Один такой проект помог в 10 раз сократить расходы на проверку звонков.
Отдельный блок на фестивале занял ML Cup от Авито. Участники решали задачи по рекомендациям и поиску дублей — те же, что крутятся в продакшене и обрабатывают 4 миллиарда событий в день. За два месяца подали 6500 решений, в конкурсе участвовало почти 900 человек.
Media is too big
VIEW IN TELEGRAM
🔥 Manus Chat Mode — чат с ИИ бесплатно и без ограничений для всех!
💬 Работает супер быстро.
🚀 Так же доступен Agent Mode с расширенными возможностями.
От простых вопросов до сложных задач — всё в одном окне : https://manus.im/
@ai_machinelearning_big_data
#news #ai #ml #manus
💬 Работает супер быстро.
🚀 Так же доступен Agent Mode с расширенными возможностями.
От простых вопросов до сложных задач — всё в одном окне : https://manus.im/
@ai_machinelearning_big_data
#news #ai #ml #manus