💴 Капитализация Nvidia превысила $5 трлн - впервые в истории компания достигла такой оценки.
За пять лет акции $NVDA подскочили более чем на 1500%. Производитель чипов зарабатывает на взрывном спросе со стороны Microsoft, OpenAI и других игроков ИИ-рынка.
Пока все искали золото, Nvidia продавала лопаты - и стала самой дорогой компанией в мире.
@ai_machinelearning_big_data
#Nvidia
За пять лет акции $NVDA подскочили более чем на 1500%. Производитель чипов зарабатывает на взрывном спросе со стороны Microsoft, OpenAI и других игроков ИИ-рынка.
Пока все искали золото, Nvidia продавала лопаты - и стала самой дорогой компанией в мире.
@ai_machinelearning_big_data
#Nvidia
👍157🎉59😁34🔥22❤12👏9🥱9🤔7🤩5😍2💅1
This media is not supported in your browser
VIEW IN TELEGRAM
Новая версия делает работу с агентами и кодом ещё гибче и удобнее:
- Мульти-агенты - теперь можно запускать до 8 агентов параллельно, каждый работает в своей изолированной копии кода.
- Composer: первая собственная агентская модель Cursor, которая оптимизирована под длинный контекст и инструменты (с производительностью в ~4× выше, по сравнению с аналогичными по «интеллекту» моделями.)
- Backend-абстракция - легко переключаться между локальной системой, виртуальной машиной или базой данных.
- Встроенный Browser - агенты теперь сами тестируют веб-приложения, кликают по элементам
- Новый Code Review - удобный просмотр изменений без постоянных переключений между файлами.
- Sandboxed Terminals - команды выполняются в безопасной среде без доступа в интернет.
- Team Commands - единые команды и настройки для всей команды разработчиков.
- Voice Mode - управление агентом голосом и голосовые запросы.
- Ускоренный LSP - быстрее работает автодополнение и анализ кода в больших проектах.
- Plan Mode in Background - планирование и выполнение задач теперь можно разделять и выполнять параллельно.
- Cloud Agents - мгновенный запуск и высокая стабильность (99.9% аптайма).
- Enterprise-функции - централизованный контроль, hooks и аудит действий пользователей.
Подробнее: https://cursor.com/changelog/2-0
@ai_machinelearning_big_data
#Cursor
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤95👍54👏18🔥16🎉8🤗4🆒2💅1
Anthropic проверили, способны ли большие языковые модели осознавать собственные «мысли» и внутренние состояния.
Для эксперимента они использовали технику внедрения концептов - добавления определённого паттерна активности в нейроны модели.
Например, они внедряли сигнал “ALL CAPS” - это шаблон, соответствующий тексту, написанному ЗАГЛАВНЫМИ БУКВАМИ. Если такая активация появляется внутри сети, значит, модель «думает» о тексте, который нужно сделать капсом.
После внедрения исследователи спрашивали модель: *«Ты чувствуешь, что что-то изменилось?»*
В 20% случаев Claude 4.1 правильно замечал вмешательство ещё до того, как сам использовал капс, то есть распознавал изменение внутри себя.
В другом эксперименте учёные подменяли слово в ответе (например, добавляли слово “bread”) и проверяли, осознаёт ли модель, что это не её собственное намерение.
После внедрения мысли Claude начинал считать это слово своим выбором и придумывал обоснования, как будто у него есть память о решении.
Модели также смогли управлять своими внутренними состояниями: по команде «думай об этом» активность усиливалась, по команде «не думай» - ослабевала.
Авторы отмечают -
Интроспекция работает лишь в определённых сценариях - мы пока не знаем, насколько она масштабируема или применима ко всем моделям и задачам
Нужен дальнейший анализ: подтверждение, что то, что мы видим - не просто имитация, а действительно внутренний механизм самосознания
Главный вывод исследования: хотя модели пока далеки от настоящей интроспекции, они уже частично способны “заглядывать внутрь себя” и понимать, что происходит в их нейронных процессах.
https://www.anthropic.com/research/introspection
@ai_machinelearning_big_data
#Anthropic #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍292🤔165😐118❤68👏65🔥51🥰34👨💻18✍16🙏16👌7
Media is too big
VIEW IN TELEGRAM
Это World-модель, работающая сразу с двумя потоками - текстом и пикселями и предсказывающая их совместное состояние на каждом шаге.
- 🔥 Обучена на 10T+ чередующихся vision-language токенов и доведена RL - в результате модель демонстрирует сильное мультимодальное рассуждение и генерация
- ⚡ Новый подход DiDA (Discrete Diffusion Adaptation) —- Discrete Diffusion Adaptation переводит последовательное декодирование в параллельное двустороннее «денойзинг»-предсказание в дискретном пространстве токенов - в итоге это дает примерно 20× быстрее инференс без потери качества.
По метрикам модель превосходит Nano Banana в генерации, редактировании и интерливинговых задачах.
@ai_machinelearning_big_data
#Emu3 #MultimodalAI #WorldModel #NextTokenPrediction
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥83👍35❤18🎉9🤩7👏6🤔4💯3
🧾 Microsoft раскрыла цифры, которые показывают масштабы расходов OpenAI.
В отчёте для SEC видно: OpenAI потеряла около $11.5 млрд за один квартал.
Это считается по методу учёта доли — Microsoft владеет примерно 27% OpenAI и списала у себя $3.1 млрд. Если 27% = $3.1 млрд убытка, то общий минус - около $11.5 млрд.
Ещё один факт: Microsoft уже перечислила $11.6 млрд из обещанных $13 млрд - почти всё финансирование уже пришло в OpenAI.
И при этом Microsoft за тот же период заработала $27.7 млрд чистой прибыли, так что такой минус она спокойно выдерживает.
Гонка за лидерство в ИИ - это игра, где даже крупнейшие компании готовы сжигать гигантские суммы.
Интересно посмотреть, сколько она ещё продлится и кто выдержит дольше?
theregister.com/2025/10/29/microsoft_earnings_q1_26_openai_loss
@ai_machinelearning_big_data
#opanai #Microsoft #money
В отчёте для SEC видно: OpenAI потеряла около $11.5 млрд за один квартал.
Это считается по методу учёта доли — Microsoft владеет примерно 27% OpenAI и списала у себя $3.1 млрд. Если 27% = $3.1 млрд убытка, то общий минус - около $11.5 млрд.
Ещё один факт: Microsoft уже перечислила $11.6 млрд из обещанных $13 млрд - почти всё финансирование уже пришло в OpenAI.
И при этом Microsoft за тот же период заработала $27.7 млрд чистой прибыли, так что такой минус она спокойно выдерживает.
Гонка за лидерство в ИИ - это игра, где даже крупнейшие компании готовы сжигать гигантские суммы.
Интересно посмотреть, сколько она ещё продлится и кто выдержит дольше?
theregister.com/2025/10/29/microsoft_earnings_q1_26_openai_loss
@ai_machinelearning_big_data
#opanai #Microsoft #money
👍85🤔69🔥29❤17🤓15😐7😁6🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
С ним за столом сидели руководители Samsung и Hyundai.
@ai_machinelearning_big_data
#Nvidia
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤208👍63🍾37😁12🥰11👏5🥱4🔥2🗿1
🔥 Hugging Face снова выкатили полезные материалы.
Вышел бесплатный плейбук о том, как изнутри строят SOTA-модели.
Без общих слов - только реальные решения и нюансы, которые обычно скрыты внутри исследовательских команд.
Это полноценный мастеркласс на 214 страниц для тех, кто хочет понимать, как устроены современные LLM.
Что внутри:
• Логика построения модели: зачем → что → как
• Как разработчики берут модель и по частям включают/выключают компоненты (или меняют их)
• Архитектура: ключевые выборы и trade-offs
• Искусство подбора и очистки данных
• Как проходит обучение моделей
• Пост-тренинг и RLHF в 2025
• Инфраструктура больших моделей
По первым страницам - уровень деталей как в Ultra-scale playbook.
Ссылка: https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
@ai_machinelearning_big_data
#AI #LLM #MachineLearning #HuggingFace
Вышел бесплатный плейбук о том, как изнутри строят SOTA-модели.
Без общих слов - только реальные решения и нюансы, которые обычно скрыты внутри исследовательских команд.
Это полноценный мастеркласс на 214 страниц для тех, кто хочет понимать, как устроены современные LLM.
Что внутри:
• Логика построения модели: зачем → что → как
• Как разработчики берут модель и по частям включают/выключают компоненты (или меняют их)
• Архитектура: ключевые выборы и trade-offs
• Искусство подбора и очистки данных
• Как проходит обучение моделей
• Пост-тренинг и RLHF в 2025
• Инфраструктура больших моделей
По первым страницам - уровень деталей как в Ultra-scale playbook.
Ссылка: https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
@ai_machinelearning_big_data
#AI #LLM #MachineLearning #HuggingFace
🔥75❤20🥰8🤩2
ИИ-ассистент по имени «Ави» от Авито готовится к запуску
Технологическая платформа подала заявку на регистрацию соответствующего товарного знака – стало известно Коммерсанту.
Новый виртуальный помощник работает на базе большой языковой модели и общается с пользователем в формате живого диалога. «Ави» уточняет цель покупки, предлагает подходящие варианты, помогает разобраться в характеристиках и объясняет, чем отличаются похожие предложения. Сейчас ассистент проходит тестирование в разных категориях, а в следующем году компания планирует запустить универсальную версию, которая будет работать во всех вертикалях платформы.
По оценкам экспертов, разработка могла обойтись примерно в 500 млн рублей. Ранее в Авито сообщали, что планируют инвестировать до 12 млрд рублей в развитие генеративного ИИ и заработать на этом более 21 млрд рублей к 2028 году. Источники отмечают, что запуск таких решений — новый тренд среди крупных компаний: они позволяют быстрее получать бизнес-эффект и усиливают лояльность аудитории.
Ранее уже писали о том, что Авито выложил в открытый доступ свои модели A-Vibe (текстовая) и A-Vision (мультимодальная). Всего за неделю A-Vibe собрала свыше 1400 скачиваний и вошла в топ трендовых моделей на Hugging Face — среди сотен тысяч доступных нейросетей.
Технологическая платформа подала заявку на регистрацию соответствующего товарного знака – стало известно Коммерсанту.
Новый виртуальный помощник работает на базе большой языковой модели и общается с пользователем в формате живого диалога. «Ави» уточняет цель покупки, предлагает подходящие варианты, помогает разобраться в характеристиках и объясняет, чем отличаются похожие предложения. Сейчас ассистент проходит тестирование в разных категориях, а в следующем году компания планирует запустить универсальную версию, которая будет работать во всех вертикалях платформы.
По оценкам экспертов, разработка могла обойтись примерно в 500 млн рублей. Ранее в Авито сообщали, что планируют инвестировать до 12 млрд рублей в развитие генеративного ИИ и заработать на этом более 21 млрд рублей к 2028 году. Источники отмечают, что запуск таких решений — новый тренд среди крупных компаний: они позволяют быстрее получать бизнес-эффект и усиливают лояльность аудитории.
Ранее уже писали о том, что Авито выложил в открытый доступ свои модели A-Vibe (текстовая) и A-Vision (мультимодальная). Всего за неделю A-Vibe собрала свыше 1400 скачиваний и вошла в топ трендовых моделей на Hugging Face — среди сотен тысяч доступных нейросетей.
👍30🤣23❤8🔥7😁2🤬2🤷♂1🥰1
🧨 Kimi представили новую модель - Kimi-Linear-48B-A3B-Base
Команда Moonshot показала KDA - механизм, который соединяет идеи Gated DeltaNet и MLA-компрессии в одну архитектуру. Звучит сложно, но суть очень практичная: модель получает долгую память без раздувания контекста и лишних вычислений.
- KDA (Kimi Delta Attention: основной быстрый attention, улучшает эффективность и reasoning
= MLA (Multi-Head Linear Attention) - помогает точности и стабильности. Модель не пересчитывает всё внимание каждый токен, а фокусируется на изменениях, что снижает затраты.
Соотношение слоёв: ~3 части KDA : 1 часть ML.
Модель в основном работает на «дельта-внимании» (KDA), а MLA помогает сохранять качество:
- модель сама выбирает, что забывать, а что держать
- это даетустойчивость при большом контексте выше
- меньше распада длинных зависимостей
Kimi-Linear хороша тем, что даёт почти уровень больших LLM на длинных контекстах, но при этом заметно экономит память и работает быстрее за счёт линейной архитектуры.
Что улучшили:
- требует до 75% меньше памяти на KV-кэш
- до 6.3× быстрее декодирование на длинных контекстах
Как устроена:
- гибридный подход: Kimi Delta Attention + MLA
- модель хорошо оптимизирована под длиннный контекст и высокую пропускную способность
По бенчмаркам модель обгоняет и MLA, и GDN-H, включая задачи с длинным контекстом. В задачах на рассуждения и длинную RL-генерацию Kimi-Linear показывает заметно лучшие результаты, чем MLA.
Архитектура модели пример того, как линейные attention-архитектуры выходят на уровень, где они конкурируют с классическими решениями не только по скорости, но и по качеству.
🟠 Github: github.com/MoonshotAI/Kimi-Linear
🟠 Hf: https://huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct
@ai_machinelearning_big_data
#Kimi #llm
Команда Moonshot показала KDA - механизм, который соединяет идеи Gated DeltaNet и MLA-компрессии в одну архитектуру. Звучит сложно, но суть очень практичная: модель получает долгую память без раздувания контекста и лишних вычислений.
- KDA (Kimi Delta Attention: основной быстрый attention, улучшает эффективность и reasoning
= MLA (Multi-Head Linear Attention) - помогает точности и стабильности. Модель не пересчитывает всё внимание каждый токен, а фокусируется на изменениях, что снижает затраты.
Соотношение слоёв: ~3 части KDA : 1 часть ML.
Модель в основном работает на «дельта-внимании» (KDA), а MLA помогает сохранять качество:
- модель сама выбирает, что забывать, а что держать
- это даетустойчивость при большом контексте выше
- меньше распада длинных зависимостей
Kimi-Linear хороша тем, что даёт почти уровень больших LLM на длинных контекстах, но при этом заметно экономит память и работает быстрее за счёт линейной архитектуры.
Что улучшили:
- требует до 75% меньше памяти на KV-кэш
- до 6.3× быстрее декодирование на длинных контекстах
Как устроена:
- гибридный подход: Kimi Delta Attention + MLA
- модель хорошо оптимизирована под длиннный контекст и высокую пропускную способность
По бенчмаркам модель обгоняет и MLA, и GDN-H, включая задачи с длинным контекстом. В задачах на рассуждения и длинную RL-генерацию Kimi-Linear показывает заметно лучшие результаты, чем MLA.
Архитектура модели пример того, как линейные attention-архитектуры выходят на уровень, где они конкурируют с классическими решениями не только по скорости, но и по качеству.
@ai_machinelearning_big_data
#Kimi #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥18❤9👏3
