Telegram Group Search
Инвестиции в ИИ-стартапы: тренды и прогнозы 2025 года

Искусственный интеллект продолжает оставаться одним из самых привлекательных секторов для венчурных инвестиций. Мы уже приводили ссылки на исследования по 2024 году — вложения растут как в разработку ПО, так и в вычислительные мощности.

В 2025-м тенденция сохраняется: на сектор ИИ пришлось почти $60 млрд, или 53% от общего объема венчурного финансирования. Особенным вниманием пользуются здравоохранение, био- и «зеленые» технологии, автоматизация юридических процессов, а также «белый слон» индустрии — генеративные LLM.

По данным Crunchbase, в Q1'2025 глобальные венчурные инвестиции достигли $113 млрд — самый высокий показатель с 2022 года. Однако треть этой суммы — $40 млрд — пришлась всего на один раунд: инвестиции в OpenAI.

И это не случайность, а тенденция: объем инвестиций растет, но количество сделок сокращается.

«Имеющим прибавится, у не имеющих отнимется»

Как показывают цифры, интерес инвесторов смещается в сторону крупных, зрелых компаний, тогда как молодым стартапам становится всё труднее находить финансирование. Грубо говоря, деньги дают тем, у кого они уже и так есть (одно из ярких исключений — мощно стартовавший сольный проект Миры Мурати), а таких меньшинство. Посмотрите на диаграммы Crunchbase:

📈 инвестиции в late-stage компании увеличились более чем на 30 % по сравнению с предыдущим кварталом и на 147 % по сравнению с прошлым годом и составили $81 млрд;

📉 напротив, объем начального финансирования seed-проектов упал до $7,2 млрд, а глобальные инвестиции на ранних стадиях сократились до $24 млрд — самый низкий уровень за последние пять кварталов.

Инсайдеры отрасли также отмечают изменения в структуре и содержании сделок. Оценка стоимости на seed-стадии снизилась на 30 % по сравнению с недавними пиковыми значениями, а сроки выхода увеличились до 12 лет и более.

👉 О чем это говорит? Хайп вокруг ИИ проходит, инвесторы начинают вести себя более прагматично и предпочитают вкладываться в проверенные модели с четким путем к монетизации, особенно в секторе ИИ.

Специализация и «буткэмп»

Один из ключевых трендов — переход от универсальных фондов к узкоспециализированным. В 2025 году многие компании сделали ставку на развитие нишевых проектов, особенно в мире технологий. И инвесторы тоже предпочитают фокусироваться на конкретных отраслях или даже на узкоспециализированных модных направлениях: климатические технологии, генная терапия, femtech (продукты, специально разработанные для женского здоровья).

Также развивается практика «буткэмп-фаундинга» — создание небольших инвестфондов, ориентированных на очень ранние проекты. Такие структуры предлагают стартапам более персонализированный подход, включая менторство, доступ к сетям и операционную поддержку. Для ИИ-стартапов, которым часто требуется длительный путь до выхода на рынок, это может стать важным преимуществом.

Демократизация инвестиций и private wealth

Ответом индустрии на скептицизм корпоративных инвесторов стали крауд-инвестинг и токенизация. Этакий метод «народной стройки», за счет которой seed- и early-stage проекты могут дотянуть до late-стадии, начать получать прибыль и раздавать дивиденды.

Растет и сектор private wealth (высоколиквидные индивидуальные инвесторы и семейные офисы): по оценкам Belasko UK Limited, к 2033 году объем частных венчурных вложений достигнет $7 трлн.

Прогнозы и вызовы на 2025 год

К концу 2025 года ожидается увеличение сделок M&A в секторе, особенно среди AI-проектов. Также прогнозируется возвращение «единорогов» — стартапов с оценкой свыше $1 млрд, особенно в Европе. С другой стороны, рост процентных ставок, геополитическая нестабильность, возможное замедление экономики и постепенное охлаждение ИИ-энтузиазма могут существенно сократить число стартапов.

#венчур #инвестиции #AI #стартапы #тренды

🚀 ©ТехноТренды
Media is too big
VIEW IN TELEGRAM
На видео выше — реклама несуществующей канатной дороги Куак-Хулу (Малайзия). Пара пожилых супругов из Куала-Лумпура захотела сервиса и экзотики и поехала за 300 км. Уже в отеле стали спрашивать, где тут деревня Заманиловка знаменитая канатная дорога. Оказалось, местные впервые о ней слышат, а видео сгенерировано нейросетью. Люди, поверив fake news, поехали в несуществующее место, потратили время и деньги.

Ну что сказать, таких случаев будет всё больше. Дипфейки в наше время становятся обыденностью. Придется привыкать, что такой же обыденностью для нас станет цифровая гигиена: не верить глазам и ушам, перепроверять любую информацию и не принимать скоропалительных решений.

Наш канал — не фейк 😉 Оставайтесь с нами!

#deepfake #нейровидео #кибербезопасность

🚀 ©ТехноТренды
🚀 Технодайджест: трендовые новости, которые привлекли наше внимание на прошлой неделе

⚡️ Мировой рынок ИИ в сфере домашней автоматизации к 2029 году вырастет до $75,16 млрд (более чем втрое с 2024-го), а среднегодовой темп роста составит 29,65 % — гласит новый отчет ResearchAndMarkets. Главными драйверами роста названы внедрение интеллектуальных устройств (EdgeAI) и облачных сервисов. Среди ключевых игроков — Google, Apple и Amazon.

⚡️ Команда разработчиков Т-Банка представила T-pro 2.0 — серию гибридных рассуждающих моделей на основе Qwen 3 32B. Новые LLM показывают неплохие результаты в русскоязычных бенчмарках, превосходя базовую Qwen 3 по всем ключевым метрикам. Посмотреть подробности, а также потрогать руками можно на HuggingFace.

⚡️ Thinking Machines Lab, стартап бывшего техдиректора OpenAI Миры Мурати (о ее уходе на «вольные хлеба» мы писали в феврале) привлек $2 млрд в «посевном» раунде. Среди инвесторов — Nvidia, Accel, AMD, Cisco и др. При этом Мира до сих пор не раскрыла деталей проекта, но предполагается, что это будет опенсорсный «убийца GPT».

⚡️ В Кремниевой долине продолжается безумная гонка за топовыми разработчиками AI, пишет WP (см. наш разбор причин и следствий этого ажиотажа). За переход из одной компании в другую предлагаются суммы, «на которые можно основать династии». При этом большинство ИИ-специалистов сейчас живет в Китае, и большой вопрос, окупятся ли расходы американцев на «перекупку мозгов» друг у друга.

⚡️ Глава OpenAI Сэм Альтман предупреждает о грядущем «кризисе мошенничества» вокруг пользовательских аккаунтов — злоумышленники «очень скоро» начнут массово использовать ИИ для кражи учетных записей в интернете. Источник угрозы — цифровая идентификация голоса при подтверждении личности для доступа к финансовым транзакциям. Защита от voice cloning становится всё актуальнее.

⚡️ Исследователи из нескольких ведущих университетов США и Amazon GenAI представили Energy-Based Transformer (EBT) — новую архитектуру искусственного интеллекта, предназначенную для аналитического мышления. Она существенно лучше в решении языковых задач и обработке изображений, чем обычные трансформеры, но при этом требует в 3,3–6,6 раза больше вычислительной мощности для обучения.

#дайджест

🚀 ©ТехноТренды
Лабубу и синдром FOMO: что делать техлиду, когда вокруг царит хайп?

Всё лето из всех утюгов слышно про эту лабубу, ими переполнены соцсети, а на маркетплейсах заказывают активнее, чем новые айфоны. Только что ваша R&D команда работала над дорожной картой на следующий квартал, а теперь дизайнеры обсуждают новых лабуб, продакт шутит про хайп, а маркетинг спрашивает, как можно сыграть на этой моде. Что делать в данной ситуации техническому лидеру?

🐵 Лабубу как культурный вирус

Labubu — не продукт. Это символ. Он живет в зоне между эстетикой, инфантильной ностальгией и мемной оборачиваемостью. Такие вещи создают эффект FOMO (fear of missing out, страх упустить что-то важное). Это мощный социальный механизм, который работает не только в культуре, но и в технологиях.

О связи психологии и технологии мы уже писали. Пример лабубу идеально иллюстрирует природу формирования трендов, как рыночных, так и технологических. Его успех основан не на функциональности, а на эмоциональном резонансе и искусственно разогретом ощущении дефицита. «Еще не знаю, что это, но мне уже надо, офигеть, дайте две».

Точно так же возникает ажиотаж вокруг LLM, Web3, NFT или AR — часто не потому, что технологии зрелы, а потому, что вызывают сильный отклик у публики (а все мы тоже ее часть).

⚡️ Как толпа формирует технологические тренды

Важно понимать: толпа не анализирует, она резонирует. Увидели 10 сториз про очередную лабубу — шлемы VR, умные очки, гибкие смартфоны или чат-боты — и подсознательно хочется оставаться «в теме». Так люди вовлекаются в поток и помогают его разгонять.

То же работает с технологиями — резонанс усиливается через сообщества, конференции и СМИ. Ажиотаж возникает на пересечении новизны, обсуждаемости и обещания перемен.

Но можно быть частью ажиотажа, а можно быть тем, кто его вызывает.

🧠 Что делать техлиду?

1️⃣ Оставаться трезвым аналитиком. Уметь отличать инфопузырь от реального сдвига. Хайп — инструмент, а не дорожная карта.

2️⃣ Слушать, но не следовать слепо. Даже если вся команда говорит о тренде, вы должны понять его природу: здесь реальная технологическая новизна или социальная игра?

3️⃣ Извлекать уроки. Что делает лабубу успешным? Дизайн? История? Рефлексия детства? Эти же принципы можно применить к digital-продукту.

Так работают Apple, Илон Маск, а из более свежих примеров — Мира Мурати. Она грамотно сочетает старые наработки (репутацию в мире AI-девелопмента, громкую историю своего ухода из OpenAI) плюс оседлала сразу две волны хайпа:
• вокруг GhatGPT (эта волна уже идет на спад)
• вокруг DeepSeek и опенсорсных LLM (а эта пока еще ого-го).

За ее «проектом Х» уже стоят история, имя и тайна, а это будоражит интерес сообщества и привлекает инвесторов. Еще никто толком не знает, что она там пилит, но ее стартап не имеет недостатка в инвестициях: $2 млрд в seed-раунде и +$10 млрд в перспективе.

🚀 Как поймать и использовать технологический тренд?

Будьте на стыке культуры и технологии. Тренды рождаются там, где новые возможности встречают эмоциональные потребности.

Следите за «слабыми сигналами»: сообществами, форумами, хакатонами. Именно там формируются темы до их появления в мейнстриме.

Делайте быстрые эксперименты. Если нельзя предвидеть будущее, то можно быть первым, кто на него отреагирует.

🌱 Как создать свой технотренд?

Современные мемные продукты, такие как Labubu, становятся популярны не только благодаря рекламе. Аудитория завоевывается через органическое распространение, трейдинговые форумы и FOMO.

Компании могут использовать аналогичные стратегии:

👉 Продукт как история. Создайте вокруг технологии повествование, вселенную, визуальный код. Слово «экосистема» появилось не зря — работайте над ней как над мультивселенной.

👉 Создавайте «артефакты культуры». Мемы, визуалы, символы — то, чем пользователи могут делиться и владеть.

👉 Станьте центром притяжения. Делитесь инсайтами, собирайте сообщество, создавайте пространство для обсуждения.

📌 Вывод: не бойтесь хайпа, используйте его и создавайте!

#digital_marketing #тренды

🚀 ©ТехноТренды
Анонсируем важные события в сфере IT в РФ и за рубежом, запланированные на следующий месяц. Мы отобрали те форумы и мероприятия, на которые еще открыта регистрация.

🇷🇺 В России

🔸 1-2 августа, Пермь — Ural Digital Weekend 2025, конференция веб-разработчиков и девелоперов
🔸12 августа, Волгоград — International Conference on Creative Media, Design and Technology (ICCMDT)
🔸15 августа, Волгоград — World Congress on Information Technology and Computer Science (WCITSC)
🔸16 августа, Москва — ИТ-пикник 2025, семейный фестиваль для айтишников
🔸18 августа - 14 сентября, онлайн — E-CUP 2025, соревнование специалистов по Data Science и машинному обучению
🔸20 августа, Самара — International Conference on Computer Science (ICOCS)
🔸21-22 августа, Москва — OFFZONE 2025, международная конференция по практической кибербезопасности

👉 P.S. А в сентябре предстоит Международный форум Kazan Digital Week 2025 — заявки на конкурс «ИТ Лидер» принимаются до 20 августа, не пропустите!

🌏 За рубежом

🔹2-7 августа, Лас-Вегас, США / онлайн — Black Hat USA 2025, международная конференция по информационной безопасности
🔹11-13 августа, Лас-Вегас, США — Ai4 2025, международный форум по ИИ и машинному обучению
🔹16-22 августа, Монреаль, Канада — IJCAI 2025 (34th International Joint Conference on Artificial Intelligence)
🔹24-28 августа, Атланта, США — ITS World Congress 2025, конференция и выставка, посвященная технологиям интеллектуальных транспортных систем
🔹27-29 августа, Шэньчжэнь, Китай — IOTE Expo Shenzhen 2025 (Internet of Things Exhibition), выставка технологий интернета вещей (IoT)
🔹28-29 августа, Лондон, Великобритания — TECHSPO London, выставка достижений в сфере интернета, мобильных технологий и SaaS

Пожалуйста, уточняйте даты и места проведения мероприятий, так как они могут изменяться.

🚀 ©ТехноТренды
Пойдет ли AI по пути блокчейна? Взгляд с позиций личного опыта

Госдума утвердила массовое внедрение цифрового рубля с 1 сентября 2026 года. ЦБ РФ выкатил доклад, где подробно расписаны все параметры, архитектура и механизмы платформы ( PDF).

Штош, блокчейн добрался до высших этажей финансовой системы. А вы заметили, какой вокруг этого стоит инфошум? Никакого. Просто рабочий процесс. Но именно в этой скуке проявляется зрелость технологии. Блокчейн из аттракциона превратился в тихую, но незаменимую деталь финансовой инфраструктуры.

🎢 Краткая история больших ожиданий

С точки зрения трендов интересна траектория, которую проходят по-настоящему прорывные технологии. На примере блокчейна цикл выглядит так:

2008 ↘️ 2013 — Технологический триггер. White-paper Биткоина, первые PoC-кошельки, споры «а можно ли на этом запускать реестр собственности?»

2016 ↗️ 2017 — Пик завышенных ожиданий. ICO-лихорадка: токенизируется всё — от кофеен до парковок. Про NFT было даже в «Симпсонах».

2018 ↘️ 2020 — Пропасть разочарования. Рынок криптовалют вошел в «медвежью» фазу; отчет Gartner в июле 2024 года фиксирует обвал интереса к блокчейн-технологиям, включая NFT, Web3 и децентрализованные биржи. Умирают многие блокчейн-стартапы (дно пропасти достигнуто где-то в 2021-м).

2021 ➡️ 2023 — Склон просветления. Хайп схлынул, настало время прагматиков. На сцену вышли регуляторы, KYC и расчеты ROI вместо «лунных» презентаций.

2024 ➡️ 2025 — Плато продуктивности. Блокчейн перестал быть темой новостей и стал инфраструктурой, как TCP/IP. Медиа-упоминания упали до фона. И это признак здоровья: работающая инфраструктура не обязана собирать лайки.

Что имеем в итоге?

👉 Шум прошел — технология осталась. Многие перестали замечать блокчейн так же, как протокол HTTPS при входе на сайт — он стал обыденностью.

👉 Сформированы инфраструктура и регуляторика. В РФ принят закон «О цифровых финансовых активах» (2021), создан реестр операторов токенизационных платформ, выпускаются реальные токены, и всё это в рамках правового поля.

📣 Момент личного опыта

В доковидные времени я оказался в проекте Atomize — токенизационная платформа на корпоративном блокчейне. Признаюсь, скепсис тогда зашкаливал: я успел повидать корпоративные DLT, которые умирали на стадии KPI. Но профессиональное любопытство победило. Впрочем, «атомайзы» оказались круты и взлетели. В начале 2022 года ЦБ внес их в реестр операторов информационных систем.

Проект состоялся, потому что не шумел, а делал то, для чего и предназначалась технология: создавал возможность бизнесу и инвесторам работать друг с другом напрямую в безопасной среде. Главная ценность блокчейна — не майнинг «битков», а принцип децентрализации, который объединил уже имевшиеся инструменты (криптографические протоколы, смарт-контракты, системы электронных платежей) и заставляет их работать на новом уровне.

📊 AI и LLM: технология другая, тренды те же

Сейчас я занимаюсь проектами в сфере AI (обучение и внедрение LLM для NLP-задач, решения по OCR и др.) и наблюдаю знакомую картину, но уже изнутри. История повторяется. По моей оценке, AI-технологии сейчас где-то между «пиком ожиданий» и «плато продуктивности». Многие исследования (кое-что мы обсуждали в нашем канале — тыц, тыц) подтверждают: происходит переход от хайпа к фазе зрелости.

Некоторые признаки перехода:
👉 рассеялся миф, что ИИ сам по себе всегда волшебно вызывает рост бизнес-показателей. Предприниматели мыслят более трезво — проводят тестирование, просчитывают стратегии внедрения и выстраивают инфраструктуру, что и приносит отдачу (см. отчет Boston Consulting Group от октября 2024);
👉 для таких умных возникают специализированные предложения. LLM не обязательно должна быть самой крутой, чтобы быть востребованной. Формируются нишевые рынки (см. например тут и тут), а это всегда признак развитости.

Конечно, еще много шума и экспериментов, и не все AI-проекты успешны. Но «суета вокруг дивана» постепенно сменяется спокойным расчетом нормы прибыли и TCO.

#blockchain #блокчейн #цифровой_рубль #DLT #AI #тренды

🚀 ©ТехноТренды
OpenAI «открыла» модели — но не совсем

OpenAI выложила модели GPT-OSS — 20B и 120B. Apache 2.0, веса доступны. Казалось бы, праздник! Но:

🔍 Исходников нет, датаcетов нет, архитектура — частично, MoE.
📄 Model card — есть.
📦 Hugging Face — есть.
🔒 Открыто, но как бы с замочком.

GPT-OSS-120B почти дотягивает до o4-mini. То есть… OpenAI сделала свою же модель «почти как закрытую», но в «открытом» виде. Удобно, не правда ли?

Сами же говорят: “Для локального запуска и кастомизации.”
Переводим: “Держите демку, но не забывайте, где настоящий GPT живёт.”

#AI #OpenAI #GPT #TechТренды

🚀 ©ТехноТренды
Forwarded from Data Secrets
Российские разрабы создали новый фреймворк, который сокращает расходы на разметку данных для языковых моделей в 3 раза

Команда из Т-Технологий, Высшей Школы Экономики, AIRI, Сбера и Университета “Иннополис” сделали ATGen. Он использует метод активного обучения и теперь модель может сама выбирать, что учить в первую очередь. По итогу модель требует размечать всего 33% от стандартного объема при выборке данных, а в наборе уже присутствует удобный интерфейс, включая поддержку OpenAI. Новый инструмент перестраивает подход к обучению ИИ, делая его доступным малым командам и компаниям без больших бюджетов.

Разработку показали на конференции ACL 2025 в Вене и уже залили на GitHub.

Для тех, кто работает с кастомными LLM — мастхэв 👩‍❤️‍👨
Please open Telegram to view this post
VIEW IN TELEGRAM
😱 GPT‑5 уже здесь — и он не шутит

OpenAI наконец представила GPT‑5 — флагманский ИИ, умнее, быстрее и точнее прежних моделей. Это как Retina-экран среди олдскульных пиксельных дисплеев: сразу видно разницу.

Какие фишки:
⚡️Обеспечивает PhD‑уровень знаний во всех темах: математика, код, мед.консультации — берет легко.
⚡️Умный маршрутизатор сам решает, как думать: быстро или подумать подольше (включая mini и nano‑версии).
⚡️Кодит лучше всех на SWE‑Bench, умеет признаться, что не знает (нет, ему не надо объяснять задание дважды).
⚡️Интегрируется во всё: ChatGPT, Microsoft Copilot, M365, Azure, GitHub — всем достанется по чуть-чуть ИИ‑волшебства.

Серьёзно, даже Сэм Альтман сравнил это с Манхэттенским проектом. Кажется, даже он слегка побаивается.

GPT‑5 — это как универсальный офис‑ассистент, который не просто отвечает, а реально думает. Только он не забудет кофе, но может рассказать, почему ракета летит в космос.

🚀 ©ТехноТренды
🔥3
В апреле google deepmind представили книгу «How to Scale Your Model» (ссылка), где подробно разбирают инференс на TPU и трансформерах.

📊 Интересные инсайты:
- Компромисс стоимость vs. задержка впечатляет: удвоение задержки на токен может дать ~100-кратное снижение стоимости.
- Задержка варьируется от 5,5 мс при маленьких пакетах до 20 мс при больших.
- Пропускная способность достигает плато (~1 токен/мс/чип) при BS 120, но при увеличении длины последовательности размер пакета ограничен памятью — полного насыщения не достичь.
- При больших пакетах задержка выше при той же пропускной способности, потому что доминирует загрузка KV, а не параметров.

💡 Вывод:
Книга — обязательна для всех, кто хочет понимать реальные компромиссы между скоростью, стоимостью и масштабируемостью LLM. Она полезна как для инженеров, оптимизирующих инференс, так и для исследователей, ищущих практические решения для больших моделей на TPU.

🚀 ©ТехноТренды
1
В продолжении темы с со скейлингом моделей отмечу поинт который наблюдаю. Пока что звучит абсурдно, но интересно:
Кластер из NVIDIA Jetson Orin NX
в форм-факторе сервера 2U

Какие преимущества:
- Низкая стоиомость самой железки в сравнении с дорогостоящими
- Низкое потребление электричества

Для чего прдходит:
Малый бизнес
Небольшие модели
Задачи OCR, чат, service-desk

🚀 ©ТехноТренды
На одной волне – это не шутка

Столкнулся с данными приведенными в научной статье, оказалось, что когда вы общаетесь по видеосвязи — ваш мозг может буквально синхрониться с мозгом собеседника. Но вот в чём подвох: как только появляется запоздание — всё, привет нейронная ссора, синхронизация улетает в отпуск! Так может, дело не в душевной связи, а в лаге Zoom?
Научные товарищи (Лай и Ко, Университет Токио) проверили: измеряли мозговые волны через EEG и смотрели, насколько фазы совпадают — фазовую «привязку» (Phase Locking Value). И выяснилось, что при минимальной задержке — да, мозги действительно начинают мерцать в унисон. Но стоит задержке перепрыгнуть критический порог — и вместо «мы на одной волне» получаем «ты — опаздывающий оркестр».

Быть «на одной волне» — это не про удобный софт, это про нейрофизиологическую тонкую настройку и очень маленькую задержку. Так что в следующий раз, когда мозги начнут расходиться — подумайте: «Может, дело не в нас, а в лаге?»

🚀 ©ТехноТренды
🔥2
Nebius (бывшая Yandex N.V.) обошла «Яндекс» по капитализации — и всё это благодаря HPC-инфраструктуре

Вчера, 9 сентября 2025 г., стало известно, что Nebius Group (ранее — Yandex N.V.) после подписания крупного AI-договора с Microsoft оценивается в стоимость $21,12 млрд.

Это стало возможным во многом благодаря стратегическому акценту на инфраструктуру ИИ: Nebius создаёт новый ЦОД в Вайнленде (Нью-Джерси), где будет предоставлять свои вычислительные ресурсы для Microsoft. Стоимость контракта – $17,4 млрд до 2031 г., с потенциалом допзакупок ещё на $2 млрд .

Почему это важно
- Явное подтверждение: спрос на HPC-решения для обучения и эксплуатации ИИ продолжает расти .
- Выигрывают те, кто способен предложить масштабируемую вычислительную платформу — «железо» становится ключевым активом.

Глобальные тренды
Мы уже отмечали: рынок ЦОД стремительно растёт — с $187 млрд в 2020 до $342 млрд в 2024 г., а инвестиции в ИИ-проекты превысили $150 млрд .
Сейчас этот тренд подтверждается и на уровне контрактов — компании, обладающие мощной инфраструктурой, укрепляют позиции и становятся «поставщиками» ресурсов.

Российский контекст
У нас всё ещё есть отставание: мощность российских ЦОД к 2030 г. должна вырасти в 7 раз и покрыть эквивалент 70 000 GPU Nvidia A100, тогда как сейчас — порядка 10 000 .
Но текущая ситуация — пример того, как HPC-инфраструктура становится драйвером капитализации и инвестиционной привлекательности.

🚀 ©ТехноТренды
Миллиарды на вычислениях для ИИ

Сегодня стало известно: основатель Oracle Ларри Эллисон вышел на первое место в мире по состоянию, обогнав Илона Маска. Его капитал за сутки вырос на $101 млрд и достиг почти $400 млрд. Причина — рекордный рост акций Oracle на фоне масштабных AI-контрактов и колоссального портфеля заказов на HPC-инфраструктуру

И Эллисон — далеко не единственный, кто разбогател на вычислительной волне:

📈 Дженсен Хуанг (Nvidia) — состояние $113 млрд, +$56 млрд за 2024 год. Nvidia стала главным поставщиком GPU для ИИ.

📈 Марк Цукерберг (Meta) — +$39 млрд благодаря росту цен на акции Meta и успехам в генеративном AI.

📈 Майкл Делл (Dell Technologies) — +$41 млрд за год. Бум спроса на AI-серверы сделал его одним из главных бенефициаров.

📈 Чарльз Лян (Supermicro) — утроил состояние до $6,2 млрд: компания поставляет серверы для AI-кластеров.

📈 Сооснователи CoreWeave, Anthropic, Scale AI — новые долларовые миллиардеры, заработавшие на облачных GPU-фермах и данных для обучения моделей.

Главный тренд: капитализация теперь создаётся не только на софте, но и на «железе».
HPC-инфраструктура — главный актив новой AI-экономики.

🚀 ©ТехноТренды
🔥1
#нашиМК 🔥

Список Российских микроконтроллеров

Миландр:
MDR1206FI
MDR1215LGI
К1986ВЕ1QI - снят с пр-ва
К1986ВЕ1FI
К1986ВЕ1GI
К1986ВЕ92QI - снят с пр-ва
К1986ВЕ92FI / MDR1211FI
К1986ВЕ92F1I
К1986ВЕ94GI
К1986ВК025 - снят с пр-ва
К1986ВК214
К1986ВК234

НИИЭТ:
К1921ВК028
К1921ВГ015
К1946ВК035
К1946ВМ014
К1921ВГ1Т - в разработке
К1921ВГ3Т - в разработке
К1921ВГ5Т - в разработке
К1921ВГ7Т - в разработке

Микрон:
MIK51BC16D / К5016ВК01
MIK51SC72D / K5016ВГ1
MIK51AB72D / К5016ХС2 - 1го уровня
MIK51AD144D / К5016ВК02
К1948ВК015/018 - 1го уровня

Байкал:
BE-U1000 - в разработке

Ангстрем:
КР1878ВЕ1 - 1го уровня
К1978ВЕ1Т - в разработке
К1978ВЕ1У - в разработке
К5004ВЕ1Х

Подсказывайте какие ещё дописать 😉
👍2
Малые языковые модели: будущее агентного ИИ

Недавно на arXiv вышла статья «Small Language Models are the Future of Agentic AI» (Belcak et al., 2025), которая может серьёзно повлиять на то, как мы смотрим на развитие агентных систем.

🚀 Основная идея

Авторы утверждают, что малые языковые модели (SLMs) способны заменить или дополнить большие модели (LLMs) в большинстве задач агентного ИИ:

«Мы определяем SLM как модель, которая подходит для вывода на одном пользовательском устройстве с низкой задержкой. Всё, что не подходит под это определение, мы называем LLM».


🔑 Три аргумента в пользу SLM
1. Достаточная мощность

«Современные SLM уже демонстрируют конкурентные результаты в рассуждении, генерации кода, следовании инструкциям и использовании инструментов».

2. Операционная гибкость
Малые модели проще адаптировать под узкие задачи, комбинировать между собой и запускать прямо на устройствах.
3. Экономическая эффективность

«Запуск SLM обходится значительно дешевле, чем использование LLM, как в вычислениях, так и в дообучении».


🧩 Где особенно полезны SLM?
• NER (распознавание сущностей)
• Классификация текстов
• Intent detection (определение намерений)
• Узкие агентные задачи с предсказуемым форматом (JSON, API-запросы)

«Агентные системы часто используют лишь небольшой поднабор возможностей модели, и этот поднабор можно реализовать на SLM».


Переход от LLM к SLM

Авторы предлагают 6-шаговый план постепенной миграции:
1. Сбор логов и запросов
2. Очистка и анонимизация данных
3. Кластеризация задач
4. Подбор SLM-кандидатов
5. Дообучение на специфичных данных
6. Постоянное обновление и маршрутизация запросов

Таким образом, система может начинать с LLM, но со временем всё чаще использовать локальные SLM.

⚖️ Контраргументы
• LLM остаются более универсальными и лучше в «понимании языка» в целом.
• У индустрии уже огромные инвестиции в инфраструктуру LLM.
• SLM пока недооценены в медиа и бизнесе.

Тем не менее, авторы настаивают, что будущее именно за «SLM-first подходом»:

«Глобальные модели не всегда оптимальны. В большинстве агентных сценариев меньшее и специализированное может оказаться лучшим».


Вывод

Малые модели могут стать новым стандартом для прикладного ИИ: быстрые, дешёвые, специализированные. LLM же будут использоваться как «резерв» для сложных и широких задач.

Это значит, что в ближайшие годы мы увидим всё больше гибридных систем, где SLM работают на фронте, а LLM подключаются лишь для самых «тяжёлых» случаев.

🚀 ©ТехноТренды
IBM представила Granite 4.0 — гибридные LLM с бесконечным контекстом и минимальными требованиями к GPU.

Представленная линейка моделей
Granite-4.0-H-Small — гибрид MoE, 32B параметров (9B активных)
Granite-4.0-H-Tiny — гибрид MoE, 7B (1B активен)
Granite-4.0-H-Micro — плотная гибридная, 3B
Granite-4.0-Micro — традиционный Transformer, 3B (для совместимости с платформами без гибридов)

Удивляет производительность:
Granite 4.0 H Tiny при работе с 1 сессией на 32k контексте требует всего 7 GB VRAM — меньше, чем Qwen3 4B или Granite 3.3.
При 8 параллельных сессиях на 128k контексте Granite укладывается в 15 GB VRAM. Для сравнения: Qwen3 4B тянет на 78 GB, Granite 3.3 — на 90 GB.
👉 Это означает: мощные LLM становятся доступными даже на RTX 3090 (1,5k$, а не H100 за 25k$).

Помните семинар AIRI в мае? Там рассказывали про SSM- арзитектуру. Вот:

«Одним из наиболее интересных аспектов языковых моделей на основе SSM, таких как Mamba, является их способность обрабатывать бесконечно длинные последовательности… Производительность подтверждена на задачах до 128k токенов, но теоретически длина контекста может быть и больше.»


То есть Granite 4.0 открывает дорогу к моделям с неограниченным контекстом на основе SSM.

Важные выводы
Гибридная архитектура (Transformer + Mamba-2) ломает старую парадигму «чем больше GPU, тем лучше».
Granite 4.0 показал отличные результаты в MTRAG-тестах для сложных RAG-сценариев → Retrieval Augmented Generation становится куда менее дорогим и более надёжным.
Модели обучены только на проверенных и этичных данных, что критично для enterprise-сегмента.
IBM активно работает с экосистемой (vLLM, llama.cpp, MLX и др.), чтобы гибридные модели стали полноценным стандартом. На ollama уже есть.

По сути, Granite 4.0 — это не просто «ещё одна LLM», а смена парадигмы: доступные, энергоэффективные модели с бесконечным контекстом и enterprise-гарантиями.

🚀 ©ТехноТренды
1
2025/10/23 09:06:37
Back to Top
HTML Embed Code: