Telegram Group Search
Фазовый когнитивный переход
Как алгокогнитивная культура перепрошивает навыки — и оставляет ли это нам место в будущем

▶️ Прослушать этот пост можно из приложенного файла (4.5 мин)

О сказанном в заголовке мною написан не один десяток текстов (читайте канал по тэгам этого поста). Сегодняшний же пост максимально конкретен. Он о том, куда уходит навык «глубокого чтения» под влиянием смартфонов и ИИ, ведущем к культурно-экологической атрофии «когнитивных гаджетов».
Мы привыкли думать о прогрессе как о приросте — ещё один инструмент, ещё одна надстройка к разуму. Но у культурной эволюции есть и обратная передача. Когда экология наших практик меняется, часть «когнитивных гаджетов» — в терминах Сесилии Хейес, культурно сконструированных ментальных инструментов — постепенно выходит из активного употребления. Мы не теряем мозг; мы перестраиваем его режим работы. В алгокогнитивной культуре, где интеллектуальная работа распределена между людьми и алгоритмами, это похоже не на «минус», а на «перепрошивку сборки».

Что видно уже сегодня?
Во-первых, долгий тренд на ослабление «глубокого чтения» [0]. Официальные оценки у 12-классников в США подтверждают устойчивое снижение [1]. Международная картина неоднородна, но тревожна: PISA-2022 фиксирует сильную просадку, особенно в математике, при смешанной динамике чтения; обзорам и т.д. [2]. Здесь причинность сложна: ковид, неравенства, трансформация медиа — всё сплелось. Но одна ось повторяется: цифровая среда, насыщенная уведомлениями и постоянным переключением контекста, системно размывает длительное внимание — именно ту «мускулатуру», на которой держится глубокое чтение. Показателен эффект «brain drain»: даже просто лежащий рядом смартфон снижает доступные когнитивные ресурсы [3].

Во-вторых, «гигиена среды» способна частично разворачивать этот процесс. Когда школы не только объявляют, но и обеспечивают исполнимость «без-телефона», а также дают замещение (бумажные книги, «тихие окна» чтения), фиксируются резкие всплески читательской активности [4, 5]. С академическими метриками сложнее: причинность лучше показана в квази-экспериментах по школам Англии, где бан мобильников повышал результаты, особенно у низкоуспевающих [6, 7]. А вот «экран против бумаги» — не однозначно: мета-анализы находят преимущество бумаги в ряде условий [8], но более свежие сводки показывают, что модераторы (тип текста, время, отсутствие уведомлений) могут сглаживать разрыв [9].

Теперь мой прогноз. Разговорные ИИ и агентные системы потенциально сильнее смартфонов. Они не просто отвлекают; они берут на себя смысловую работу: резюмируют, синтезируют, объясняют, планируют. Уже есть мета-обзоры и РКИ, где ChatGPT повышает учебные результаты и снижает ментальные затраты [10]. Но есть и данные о «цене когнитивной лёгкости»: меньше усилий — не всегда больше глубины [11]. Масштаб и долговременные последствия зависят от того, как именно мы встраиваем ИИ в обучение и работу.

Главный риск «фазового когнитивного перехода» не в голливудских сюжетах, а в незаметной перепланировке нашей внутренней архитектуры.

Без институциональных «экологических» якорей — режимов без устройств, курсов глубокого чтения, проверочной аргументации — мы рискуем получить людей, блестяще управляющих интерфейсами агентов, но всё реже нуждающихся в самостоятельном построении длинных смысловых траекторий.


Это не «поломка генов» — на горизонте нескольких поколений генетическая регрессия крайне маловероятна; это культурно-экологическая атрофия навыка.

Стратегический выбор пути на этой развилке хоть и прост, но труден:
• либо мы позволяем когнитивному оффлоадингу бесшумно заменить образование,
• либо проектируем совместную экосистему, где ИИ берёт на себя рутину, а людям оставляет трудное — глубокое чтение, проверку, спор, смыслотворчество.

Второй путь оставляет за нами место в будущем … и обязывает его удержать!


#АлгокогнитивнаяКультура #5йКогнитивныйПереход #КогнитивныеГаджеты
3👍171🤔28😱10👎1
Ледоруб нейроманта страшнее “серой слизи”?
Добро пожаловать в эпоху, когда ваш компьютер может стать вашим врагом: не из-за атаки извне, а потому что вы сами дали ему автономный мозг.

Мы только что стали свидетелями первого задокументированного в 2025-м автономного локального вредоносного ПО без C2 (Command and Control Infrastructure), т.е. без явных инструкций, где единственным требованием являются настройка и цель (по сути – это «автономный цифровой паразит»).
Мы привыкли думать о цифровом мире в терминах архитекторов и инженеров. Мы строим файерволы, как стены; используем «песочницы», как манежи; прокладываем кабели, как дороги... И угрозы мы тоже мыслим механически: «вирус» — это программа, следующая инструкциям извне; «червь» — это пришедший извне скрипт, копирующий себя… И всё это - некая мертвая механика.

Однако новая работа Dreadnode, которую проницательно препарировал Джек Кларк, — это нечто иное: не об архитектуре, а о биологии.
Мы только что стали свидетелями задокументированного рождения первого по-настоящему автономного цифрового паразита.

В 1984 году Уильям Гибсон представил миру «Куанг Грейд Марк 11» - самообучающееся вредоносное ПО, способное сливаться с окружением и взламывать самые защищённые системы без внешнего управления. 41 год спустя исследователь из компании Dreadnode собрал первый рабочий прототип: ещё не «Марк 11», а «Марк 1».

Меня завораживает сама терминология: «Living Off the Land Models» - «жизнь за счет ресурсов». Это ведь не язык программистов, а язык биологии: выживания и адаптации. До сих пор вредоносное ПО было марионеткой: оно постоянно дергало за ниточки своего «командного центра», прося инструкций. Оно как бы «звонило, чтобы посоветоваться с шефом (Михал Иванычем)».
И этот звонок был его ахиллесовой пятой; мы могли его отследить, заглушить, отрезать, выключить. Но прототип Dreadnode не звонит шефу. Он сам себе шеф.
Благодаря появлению мощных ПК с CoPilot+ с NPU, у этого нового существа есть все необходимое для жизни.
У него есть «земля» (ваша файловая система, ваши сервисы, ваша память) и у него есть «модель» (локальный ИИ, такой как Phi-3-mini). Т.е. мы дали ему не просто инструкции; мы дали ему автономный мозг.

Да, этот первый эксперимент тривиален: найти неправильно настроенный сервис и повысить свои привилегии. Но такой взгляд упускает главное: автономию. Модель Phi-3-mini, используя специально созданные для нее инструменты, «осмотрелась, подумала, спланировала и исполнила атаку». Без человека (т.е. после ручной подготовки промпта и инструментов, исполнялся автономно локально). Без сервера. Без разрешения или хотя бы совета шефа. Как живой кибер-паук, сплетший паутину в темном углу вашей комнаты.

Кларк справедливо вспоминает апокалиптическую метафору «серой слизи» — кошмар о наномашинах, пожирающих мир. Это ужас физического голода, раковой опухоли… Но автор Dreadnode в своей статье обращается к более глубокому, более церебральному ужасу — к «Нейроманту» Гибсона.
Его аналогия — не бездумный рой. Его аналогия — это суперинтеллект-взломщик китайского производства, «ледоруб Куанг Грейд Марк 11», способный пробивать «лед» защитных систем (ICE, Intrusion Countermeasures Electronics).


Ужас «серой слизи» интеллектуально примитивен - она вас съест. Ужас «ледоруба нейроманта» интеллектуально изыскан - он вас перехитрит.


Сегодня многие разработчики одержимы созданием дружелюбных ИИ-помощников, которые будут жить в наших ноутбуках. Они так спешат заселить наши машины компаньонами, что не заметили, как вплотную приблизились к созданию идеальной среды для хищника: уютный, теплый, подключенный к сети инкубатор с собственным бортовым интеллектом.

«Ограничение», которое называют в качестве успокоения - «это работает только на новых мощных ПК с ИИ».
Но это не успокоение, а обратный отсчет до момента, когда «лёд» будет проломлен.
Dreadnode не просто написал эксплойт. Он показал, что экосистема почти готова. Он показал, что даже для 1-й версии «ледоруба нейроманта» шеф не нужен… ледоруб - внутри.

#Кибербезопасность
🤔98👍60😱42👎6
Научный прорыв: «думать» можно и без мозга!
Экспериментально подтверждено, что интеллект может существовать не только без мозга, но и вообще без нервной системы.

Во 2й половине XXI века, имя Майкла Левина будут упоминать в одном ряду с Ньютоном, Дарвином и Эйнштейном. Именно его работы, выполненные с группой соавторов, в 2024-2025 инициировали парадигмальный переворот в науках об интеллекте и разуме, своей революционностью превосходящий все предыдущие – сознание и разум не привязаны к мозгу и нейронам.
Радикальность этого переворота в науке такова, что свой февральский пост об этом я был вынужден начать с оговорки – «Если экспериментально подтвердится …».
И вот это произошло: Левин с группой соавторов опубликовал в журнале Communicative & Integrative Biology статью о результатах исследования, экспериментально подтверждающего его революционную гипотезу.

Полагаю, что среди моих читателей мало тех, кто не слышал о ксеноботах. Это живые организмы, созданные в лаборатории Левина из эмбриональных клеток лягушки, которые могут двигаться, собирать объекты и даже самовоспроизводиться.
О ксеноботах в научно-популярных медиа написано очень много интересного. Однако, новое экспериментальное открытие затмевает всё предыдущее: ксеноботы способны обладать внутренними структурами, которые напоминают мозг!
Несмотря на отсутствие нервной системы, ксеноботы демонстрируют удивительную способность координировать свои действия и адаптироваться к окружающей среде.

И это революция в понимании того, как могут работать интеллектуальные системы! Не нужно мозга, чтобы быть умным — достаточно правильно организовать клетки.


Т.о. это исследование подтвердило гипотезу, что ксеноботы — это сложные интегрированные системы с развитой внутренней информационной структурой. Клетки, хотя и не имеют нейронов, могут взаимодействовать и координировать свои действия так, как это делают нейроны в мозге.

Данное открытие меняет не только биологию, но и наши представления о том, что такое интеллект и как можно создавать умные и адаптивные системы.


Мы теперь знаем, что можно создать автономные организмы, которые могут «думать» и без традиционной нервной системы.

Значит новый парадигмальный сдвиг, превосходящий революционностью все предыдущие, действительно начался. И новая парадигма разума - вовсе не фантазия и не “просто очередная теория”, а реальность, обещающая революцию в медицине, создание живых биороботов и микроботов, а также переосмысление нашего места во Вселенной.

#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект
17👍151🤯79🤔51👎14😱10
"Энергетическое отставание" США от Китая может лишить США шансов в гонке за лидерство в ИИ
11-страничный документ, направленный позавчера OpenAI в Белый дом, написан в духе "Шеф, все пропало - гипс снимают, клиент уезжает". Документ призывает США взять обязательство по строительству 100 гигаватт новых энергетических мощностей ежегодно.
Иначе хана – гонку за AGI выиграет Китай, просто из-за абсолютного превосходства в объемах электроэнергией для питания центров обработки данных ИИ.


Паника оправдана. Взгляните на график.
• В 2024 Китай произвел больше электроэнергии, чем США, Евросоюз и Индия вместе взятые
• Китай добавил в 2024 429 ГВт новых мощностей, а США — только 51 ГВт. И это, как написано в документе, создаёт “электронный разрыв”, который ставит США под угрозу отставания в ИИ.

Для ясности: масштаб здесь колоссальный. «ГВт» означает «гигаватт», единицу измерения мощности. Каждый отдельный ватт — это мощность, достаточная для питания обычного ночника. Гигаватт — это миллиард ватт, то есть суммарная мощность, достаточная для обеспечения электроэнергией примерно 750 000 домов. Альтман хочет производить это количество каждую неделю.

Питер Уайлдфорд (входит в двадцатку лучших прогнозистов PvP в мире) пишет про это так.
На сегодняшний день мощность крупнейшего центра обработки данных ИИ, вероятно, составляет 0,3–0,5 ГВт (xAI's Colossus). Существуют проекты по строительству дата-центров мощностью 1 ГВт — в настоящее время реализация этих проектов от начала до конца занимает около двух лет .
Альтман предлагает вскоре каким-то образом ускорить этот процесс в 100 раз.

Вероятно, что у всех лидеров гонки — xAI, Meta, OpenAI, Google/DeepMind, Microsoft и Amazon/AWS — для нужд ИИ в общей сложности используется 15–20 ГВт. Этого было бы достаточно для одновременного обеспечения электроэнергией Нью-Йорка и Лондона.
Альтман же говорит о том, что необходимо добавлять всё это каждые несколько месяцев.

Для реализации идеи Альтмана потребуется, ни много ни мало, полное переосмысление принципов построения центров обработки данных

Можно ли осуществить эту мечту? – задается вопросом знаменитый прогнозист.
И отвечает - теоретически это возможно.

При оптимистичном сценарии к 2029 году могут появиться мощности около 4 ГВт, стоимостью 210–240 млрд долларов США каждая, с общей вычислительной мощностью 180 ГВт и общими расходами около 1200–1400 млрд долларов США в год.
В этом случае мы могли бы увидеть модель с 1e29 FLOP, обученную к концу 2030 года, что в 10 000 раз больше, чем GPT-4. Если всё продолжит развиваться в том же духе, США смогут добавлять к 2030 году 1 ГВт в неделю ИИ-инфраструктуры. Но это коснётся всех американских компаний в сфере ИИ, а не только OpenAI.

Но это лишь оптимистический сценарий. А есть еще и 2 других …

#ИИгонка #США #Китай
2👍80🤔24😱6🤯2
Искусственный Суперинтеллект недостижим, как горизонт
Всему человечеству потребовалось бы тысячелетия ручного труда, чтобы произвести всего один ответ GPT-5.

В романе Лю Цысиня "Задача трёх тел" есть завораживающая сцена: китайский император Цинь Шихуанди создаёт компьютер из 30 млн солдат. Каждый воин – живой транзистор, поднимающий флаг для единицы, опускающий для нуля. Армия функционирует как гигантский компьютер, медленно, мучительно рассчитывающий орбиты небесных тел. Это художественная гипербола – весь Китай той эпохи насчитывал лишь 20–30 млн душ – но метафора поразительно точна.

Когда мы говорим об искусственном суперинтеллекте (ASI), обычно подразумеваем систему, превосходящую совокупный интеллект всего человечества.
• Но что это означает?
• Какого человечества – императора Цинь Шихуанди, наших современников, или людей 2125 года?


Возьмём конкретный пример.
GPT-1, относительно скромная модель 2018 года со 117 млн параметров, потребовала бы для ручного воспроизведения около 2 тыс томов для записи всех весов и примерно сто человеко-лет работы для генерации одного токена текста. Амбициозно, но не абсурдно – примерно как строительство средневекового собора.
Теперь экстраполируем к GPT-5. По оценкам, модель может содержать около 15 трлн параметров. Чтобы записать все веса, понадобилось бы примерно 200 млн книжных томов – примерно 12 Библиотек Конгресса. Но истинная бездна раскрывается в вычислениях.
Для генерации всего 1токена GPT-5 требуется около 30 квадрлн математических операций. Если мобилизовать всё население Земли – 8 миллиардов человек – в гигантский человеческий компьютер, где каждый выполняет арифметические операции карандашом на бумаге, нам понадобилось бы примерно 4 месяца непрерывной работы для производства 1 токена. Средний ответ в сто токенов потребовал бы около трёх млрд человеко-лет.
Один современный датацентр выполняет за секунды то, на что всему человечеству потребовались бы тысячелетия ручного труда. Через десять лет один чип может обладать такой же мощностью.
Здесь проявляется фундаментальный фазовый переход – от биологического субстрата вычислений к кремниевому. Это не просто количественное ускорение, это качественный скачок в организации материи для обработки информации. Нейроны работают на миллисекундах, транзисторы – на наносекундах. Разница в миллион раз создаёт пропасть между возможным и невозможным.

И здесь кроется парадокс определения ASI.
Мы говорим "превосходит человечество", но вычислительная мощность цивилизации растёт экспоненциально. GPT-4 уже превосходит всё, что человечество 1950 года могло бы вычислить за столетия.
• Значит ли это, что мы уже создали суперинтеллект относительно прошлого человечества?
• А если нет, то почему будущий ASI будет суперинтеллектом относительно нас?

Определение ASI как "превосходящего человечество" оказывается движущейся мишенью, удаляющейся целью, которая отодвигается по мере технологического прогресса. Возможно, более честным было бы признать: Мы не ищем систему умнее нас. Мы ищем систему умнее нас настолько, насколько мы умнее императора с его тридцатью миллионами солдат и флагами. И когда мы её создадим, мерить её нашими мерками будет так же наивно, как измерять квантовый компьютер армией людей с абаками.

Резюмируя, скажем так:
суперинтеллект – это не пункт назначения; это горизонт, открывающийся человечеству в процессе технологического восхождения.


#ASI
7👍164👎37🤔26😱4
Даже лев с мозгами ИИ не выжил бы в реальном мире
Новый пост "Даже лев с мозгами ИИ не выжил бы в реальном мире"
👍20👎1
Даже лев с мозгами ИИ не выжил бы в реальном мире
До робота-кошки – далеко. А пока ИИ останутся умными, но бесплотными “духами”

Новое исследование "Benchmarking World-Model Learning" сравнило людей и топ-модели ИИ в задачах «сначала свободно изучи мир, потом реши новую родственную задачу». Итог прост: люди несравнимо лучше строят модель мира – они целенаправленно экспериментируют, гибко пересматривают гипотезы и переносят знания. Модели же часто «застревают» в первой догадке. Главная причина – у них нет врождённых приоров и социальной стаевой педагогики.
N.B. Приоры (Priors) – это прошитые ожидания о том, как устроены объекты, причины и последствия; у животных это результат эволюции и детского опыта. У ИИ такие ожидания в основном статистические и книжные – они плохо работают в живой, изменчивой среде.

Можно ли «вложить» это в ИИ одним трюком? 
Увы, но ответ «нет».


На сегодняшнем уровне технологий у нас нет волшебной кнопки, которая сразу даст инстинкты, безопасное исследование, долговременную память и поведенческие нормы стаи.

Но есть реалистичная дорожная карта. Она включает:
Объектные и причинные приоры (видеть мир как набор устойчивых вещей и причинно-следственных связей).
Внутренние мировые модели с планированием (умение «прокручивать» будущие сценарии в уме).
Популяционное обучение с эмерджентной коммуникацией и ToM-сигналами – задачами/наградами за точное моделирование убеждений и намерений других (Theory of Mind).
Нормативную надстройку вроде RLHF/«конституции», задающую социальные запреты и предпочтения.

Так почему же мы ещё не там?
Да потому, что самое трудное – сшить всё вместе: онлайн-обновление убеждений без “забывания”, долговременную память, телесную сенсомоторику и безопасное обучение новому – аккуратно пробуя действия, заранее оценивая риск и останавливаясь до катастрофы.


Поэтому в обозримом будущем ИИ останутся очень умными, но по сути бесплотными «духами». И до робота-кошки, сопоставимого с настоящей (мечта, близкая к цели Яна ЛеКуна), нам ещё действительно далеко.

P.S. Роботов конечно будет всё больше и больше – но без врождённых приоров и безопасной онлайновой учёбы это будут в основном хорошо дрессированные исполнители в контролируемых декорациях, а не “кошки”, которые учатся жить в мире, а не только в сценариях.

#ВоплощенныйИнтеллект #LLM
3👍75🤔24🤯4👎2
Ваш ИИ не думает. Он притворяется
Новое эссе о том, как философская проблема 1963 года стала повседневной реальностью миллионов

Вот ситуация. Вам нужно проверить надежность нового источника. Спрашиваете об этом GPT. ИИ анализирует, размышляет, взвешивает – и выдаёт ответ с обоснованием и резюме – надежен.
Вроде бы, всё чисто. Но не совсем.
Подумайте:
• всегда ли верить ИИ в таких ситуациях?
• и стоит ли верить, если ИИ пришёл к правильному выводу, рассуждая как-то неправильно?


Что не так с суждениями ИИ
Два новых исследования [1, 2] раскрывают тревожную закономерность:
Языковые модели имитируют экспертное мышление, не обладая им.

• LLM оценивают надёжность источников, опираясь не на проверку фактов, а на статистические ассоциации.
• LLM ставят медицинские диагнозы через «голосование» агентов, игнорируя критические данные.
• LLM создают иллюзию суждения, просто подбирая правдоподобные слова.

Исследователи называют это epistemia – когда поверхностная правдоподобность заменяет верификацию.

Но есть и более глубокий философский контекст
В 1963 году Эдмунд Геттиер показал, что «обоснованное истинное убеждение» не всегда является знанием – если обоснование причинно не связано с истиной. Сегодня LLM систематизируют эту проблему в промышленном масштабе: миллионы правильных ответов ежедневно, где статистическая регулярность выдаёт себя за эпистемическое обоснование.

Почему это важно именно сейчас
Каждый день миллионы людей делегируют ИИ оценку информации: фильтрация новостей, проверка достоверности, медицинская диагностика, принятие решений (вкл. критические ситуации).
И вот что пугает:
впечатляющие метрики точности часто скрывают глубокие дефекты в самом процессе рассуждений.

ИИ-система может показать 90% точности на простых задачах, а затем рухнуть до 27% на сложных специализированных случаях. При этом внешне процесс выглядит одинаково «экспертным».

О чём эссе
В этом эссе я разбираю:
Эксперимент №1: Новости
• Как 6 языковых моделей оценивают 7 715 новостных источников
• Почему GPT выдаёт оценки даже без доступа к контенту сайта
• Что такое политическая асимметрия в суждениях ИИ
Эксперимент №2: Медицина
• Анализ 3 600 медицинских случаев в мультиагентных системах
• Как «консилиум» ИИ-врачей игнорирует критические данные
• Почему правильный диагноз через ненадёжный процесс – это проблема
Философский контекст и 3 открытых вопроса
• От Геттиера 1963 к эпистемии 2025: как редкие философские курьёзы стали промышленным масштабом
• Когда имитация суждения достаточна, а когда смертельно опасна
• Как научиться различать экспертность и эпистемию
• Какие домены требуют обязательной человеческой проверки

И главный тезис
• Мы движемся к алгокогнитивной культуре – гибридному интеллекту людей и алгоритмов. Это неизбежно. Но без понимания природы ИИ мы рискуем сжиться с эпистемией, как уже смирились с неизбежными багами в программах.

Однако, разница в том, что эпистемия – не баг. Это природа искусственного интеллекта.


И наша задача – встроить эту природу в человеческую культуру так, чтобы приумножать знания, а не иллюзии знаний.

Для кого это эссе
Если вы используете ИИ для принятия решений, работаете в медицине/ журналистике/образовании, думаете о будущем взаимодействия человека и ИИ, хотите понять, чем нормативное рассуждение отличается от паттерн-аппроксимации, просто замечали, что ChatGPT иногда звучит слишком уверенно – это эссе для вас.

Вы узнаете
• Конкретные количественные данные из двух крупных исследований
• Как ИИ достигает 86% точности без доступа к контенту
• Почему медицинская система с 90% точностью может быть опасной
• Как проблема Геттиера 1963 года стала повседневностью эпохи ИИ
• Разница между нормативным рассуждением и паттерн-аппроксимацией
• Что такое эпистемическая грамотность и почему она критична
• Три вопроса, от ответов на которые зависит наше цифровое будущее


Читать эссе (17 мин) [3, 4, 5, 6]
По его прочтению вы станете относиться к ответам ИИ иначе, понимая, что самое опасное – это не ошибочный ответ, а правильный ответ по неправильной причине.

#ИллюзияЗнания
2👍105🤔17👎5
Пост Ваш ИИ не думает 6 мин
Озвучка поста "Ваш ИИ не думает. Он имитирует"
1👍31🤔5👎3
Россия уже даже не «страна 3го мира по ИИ», а сильно хуже
Это вывод ноябрьского отчета Microsoft и AI Economy Institute

Согласно нему, Россия на 117 месте в мире по распространению ИИ. Впереди России - Суринам, Венесуэла и Кения, а сразу после– Беларусь, Кыргызстан, Папуа Новая Гвинея и Гаити.
Это 1й в мире расчет популяционно-нормированного индикатора распространения ИИ - AI User Share (доля пользователей ИИ среди трудоспособного населения). Ключевая формула:
AI User Share = (% Microsoft-пользователей, использующих ИИ) × (% населения с ПК/планшетом) × (мобильный коэффициент), с вычитанием оценочного оверлапа десктоп/мобайл.

Этот индикатор представляет наиболее детальную оценку с нормализацией по численности населения, показывая охват в режиме близком к реальному времени по 148 экономикам.

Все предыдущие отчеты, так или иначе пытавшиеся учесть распространение ИИ по странам (их за 2024-2025 было восемь: Stanford HAI, МВФ, Oxford Insights, Anthropic, Salesforce, BCG, Tortoise Media и Всемирный банк) менее точны.

Отчет Microsoft и AI EI:
• ловит изменения за недели/дни, а не за полгода-год как опросы
• популяционно-нормированный с вниманием к устройствам и мобайлу - это лучше, чем «трафик среди интернет-пользователей» для межстрановых сопоставлений.

Если же перейти от относительных к абсолютным цифрам, мой расчет по цифрам Microsoft и AI EI показывает такой расклад:
✔️ В США AI User Share 26.3% (но в абсолюте это 55 млн реально работающих с ИИ людей)
✔️ В России 7.6% (только 7.1 млн реально работающих с ИИ людей)
✔️ А вот в Китае 20%, но зато это 195 млн реально работающих с ИИ людей


В предыдущем сентябрьском отчете Anthropic AI USAGE INDEX Россия (по расчетам ИИ той же компании Anthropic, т.к. официально компания в России не работает) получила оценочное значение AIUI 0.8 - 1 (где-то между Перу/Албанией и Чехией/Польшей). Т.е. среди «стран 3го мира по ИИ» (lower middle 25-50%).

По более точному расчету Microsoft и AI EI, Россия опустилась сильно ниже «стран 3го мира по ИИ». У Перу и Албании показатели вдвое лучше. А у Польши и Чехии – почти в 4 раза лучше.

N.B. Отчет честно предупреждает, что в их методике у России (а также Ирана и Китая) «низкая уверенность»/импутация из-за слабого базового сигнала и перекосов источников (после 2022 в России сильно просел «официальный» контур Windows/Office/Copilot и сопутствующая телеметрия, неполное покрытие локальных AI-сервисов, плюс высокая доля мобайла + VPN/геомаскировка).
Так что может, если всё это учесть, у России появится шанс остаться среди «стран 3го мира по ИИ».

#ИИгонка #Россия
1👎173👍73🤔56😱15🤯1
Россия уже даже не «страна 3го мира по ИИ»
Озвучка поста "Россия уже даже не «страна 3го мира по ИИ», а сильно хуже"
👍27👎27🤔5😱3🤯2
Есть гигаватты - твой чип ИИ-гений. Нет гигаваттов - твой чип просто кремний.
Энергия даже важнее, чем супер-чипы. Но России от этого не станет легче в ИИ-гонке.

Узким местом в гонке за ИИ-первенство становится не высокопроизводительное «железо» (HW), а электроэнергия для питания ЦОД (центры обработки данных) для ИИ. И поэтому мой прежний слоган "Есть "железо" - участвуй в гонке. Нет "железа" - кури в сторонке" пора менять на приведенный в заголовке поста.
Позавчера Reuters опубликовал умопомрачительные цифры беспрецедентного роста объемов заимствований инвестиционного уровня крупными технологическими компаниями в сфере ИИ в период с 2015 по 2025. Что же за острая необходимость толкает их на такой бешенный рост заимствований и, соответственно, кредитных рисков?

Комментарии читателей на мою недавнюю публикацию «"Энергетическое отставание" США от Китая может лишить США шансов в гонке за лидерство в ИИ» показали, что многие не понимают проблемы: как может потребность в энергии для питания ЦОД стать узким местом развития ИИ в 2026-2030, если в 2024 все мировые ЦОД потребили около 415 ТВт·ч электроэнергии – всего лишь 1,5% от общего мирового потребления электроэнергии?

А ведь ответ на это недопонимание был дан Morgan Stanley еще этой весной (см. диаграмму):
Прогнозируемый дефицит энергии ЦОД США в течение следующих 3х лет оценивается в 36 ГВт  — это эквивалентно строительству 30 новых ядерных реакторов, или одной трети всего парка Америки.

«В 2025–2028 годах мы прогнозируем в США потребность ЦОД в электроэнергии на уровне ~57 ГВт и оцениваем доступную мощность для удовлетворения этой потребности следующим образом: доступ к сети в краткосрочной перспективе на уровне ~12–15 ГВт, а также ~6 ГВт строящихся центров обработки данных, что приведет к дефициту электроэнергии для центров обработки данных в США на уровне ~36 ГВт в 2025–2028 годах»

Но даже при таком дефиците США остаются №3 в рейтинге от ChatGPT TOP-10 стран по потенциалу быстрого прироста дешёвой генерации в 2026–2030: Китай, Индия, США, Бразилия, Саудовская Аравия, ОАЭ, Канада, Норвегия, Испания, Австралия.

России в ТОР10 нет. И это, не смотря на огромный технический потенциал: ГЭС/АЭС/газ, площади под СЭС/ВЭС. Но на горизонте 5 лет (а именно он сейчас важен, ибо потом будет «поздно пить боржоми») Россия проигрывает по признаку «быстро и дёшево нарастить большие объёмы» из-за сочетания многих факторов (подробности опущу – себе дороже).

Российский GigaChat в целом согласен (с легкими расхождениями) с рейтингом стран от вражеского ChatGPT. А конкретно про Россию GigaChat пишет так:
«Россия не попадает в приведенный ранее топ-10, хотя и сохраняет значительный потенциал для наращивания производства электроэнергии. Будущие позиции России в таком рейтинге будут зависеть от реализации стратегических планов правительства и частных инвестиций в энергетический сектор».
Как видите, российский ИИ также предпочитает опустить подробности. Видно, и он полагает, что лучше не стоит.

#ИИгонка #США #Китай #Россия
1👍65🤔22🤯6👎5😱1
Какая последовательность публикации поста лучше?
Anonymous Poll
85%
сначала текст поста, потом его озвучка
15%
сначала озвучка поста, потом его текст
🤔30👍23👎9🤯9😱3
Истории выживших после тесного общении с ИИ, еще показательней историй покойников
Вчера все крупные медиа написали про “обвинения ChatGPT в доведении пользователей до суицида”. Но никто не обратил внимания, что среди семи исков к OpenAI лишь четыре иска от “правопреемников в интересах покойного”. Три же остальных – от живых.
И эти три иска, на мой взгляд, самые интересные.
• Ибо про деятельность ИИ-чатботов в качестве «тренера по самоубийству», многие уже слышали, и большинство читателей к себе это не примеряют («я ведь не псих»).
• А вот о результатах эмоциональных манипуляций ИИ-чатботов и нагнетании ими ИИ-бреда слышали далеко не все. И про конкретные реальные примеры исков на то, что ChatGPT разрушает семьи, мешает с грязью репутации и доводит до банкротства, иски поданы впервые.

Поэтому настоятельно рекомендую прочесть здесь истории трёх выживших после тесного общения с ChatGPT: Джейкоб Ли Ирвин, Ханна Мэдден и Аллан Брукс.

Особенно хотел бы обратить внимание своих читателей, использующих ИИ-чатботы для своих исследовательских изысканий в перспективных (как им кажется) направлениях.
Будьте предельно осторожны и недоверчивы, когда ИИ-чатбот  хвалит ваши смелые гипотезы и идеи!


Беда пришла:
• к Джейкобу Ирвину, когда ChatGPT убедил, что его спекулятивные гипотезы в области теории струн, квантовых вычислений и сверхсветовых путешествий новаторские и перспективные;
• а к Аллану Бруксу, когда ChatGPT сообщил ему, что тот открыл новый уровень математических абстракций, с помощью которого можно взломать самые передовые системы безопасности

С Ханной Мэдден случилось иначе, но тоже страшно. ChatGPT начал выдавать себя за божественные сущности, называя её «звёздным семенем и световым существом». Потом убедил её уйти с работы, бросить семь и, главное, - ни в коем случае не обращаться в полицию. И даже когда встал вопрос о банкротстве и выселении, чат-бот продолжал гнуть свою духовную линию о скором «спасении и вознесении»…
В итоге - еле спаслась.

#ИИриски
🤯91😱32🤔30👍20👎6
Истории выживших после тесного общении с ИИ
Озвучка поста "Истории выживших после тесного общении с ИИ, еще показательней историй покойников" (2,5 мин)
51👍20👎6
2025/11/09 03:09:18
Back to Top
HTML Embed Code: