Telegram Group & Telegram Channel
ChatGPT: Аппроксимация доксы

Главный аргумент против больших языковых моделей (LLM) касается так называемой "экзистенциальной угрозы". Она заключается в скором появлении сильного искусственного интеллекта, который будет умней всего человечества вместе взятого, и почему-то захочет уничтожить его. Под это дело в ЕС уже кинулись разбираться с технологией привычными методами: либо запретить, либо отдать на откуп бюрократам. Координацией усилий занимается кембриджский Центр изучения экзистенциального риска, консультирующий английское правительство. Его возглавляет не абы кто, а целый барон Мартин Рис - бывший президент Королевского общества и придворный астролог астроном.

Почему европейцы так взъелись на технологию генерирования текста? Если вспомнить предыдущих кандидатов на роль глобально угрозы, можно понять, что дело в борьбе против американского технологического превосходства. Начиная с 50-х годов прошлого века материально-технической базой Скайнета среди прочего успели побывать ламповые компьютеры и интернет. Первые были основой американской промышленной революции, а второй - средством контроля информации в мировом масштабе. На этих технологиях США построили и до сих пор удерживают свою гегемонию. За счет LLM они собираются остаться на вершине мира в XXI веке.

Реальное ноу-хау технологии заключается вовсе не в автоматизации рабочих мест пролетариата умственного труда. Смысл ChatGPT - это аппроксимация доксы.

Технология работает следующим образом: вы передаете модели последовательность слов, а она подбирает самое вероятное следующее. Вероятность высчитывается исходя из текстов, использовавшихся для обучения. То есть, для ввода "мама мыла" самым вероятным выводом будет "раму". Магия с генерированием "осмысленных" текстов появляется, если обучить систему на колоссальных объемах информации, которые покрывают все возможные бытовые темы для разговора. Например, на всем реддите или твиттере. После этого нейросеть начнет выдавать грамматически осмысленное "мнение", являющееся среднестатистическим для авторов обучающего контента - реддиторов или твиттеровских. Это работает даже для вопросов, явного ответа на которые не было в обучающих данных. Другими словами, LLM аппроксимирует доксические высказывания по любым темам.

Эта технология обессмысливает существование массовой политики, которая собирает реакции масс, а потом на основе их анализа формирует и доносит до людей властные императивы. Теперь исследовать предубеждения и базовые реакции можно просто задавая вопросы большой языковой модели. Она же сгенерирует сколь угодно таргетированные пропагандистские послания, которые всегда будут бить в прямо цель. Единый электоральный спектакль, удерживающий общественное единство, становится ненужен.

Практически это означает полную автоматизацию государства и его неуязвимость к инспирациям через большие массы людей. LLM сделают с бюрократией то же самое, что антропоморфные роботы - с экономикой. Они исключат "человеческий фактор". Но если роботы обесценят для государства тела людей, то нейросети - их души.

ПС. Сначала хотел подробно написать про экзистенциальные угрозы и сингуляризм, но текст вылез за телеграмовский лимит. Поэтому решил вынести это на бусти, расширив и связав с ранней историей ИИ.

Чат || Подписка && Оглавление



group-telegram.com/hyperhistory/156
Create:
Last Update:

ChatGPT: Аппроксимация доксы

Главный аргумент против больших языковых моделей (LLM) касается так называемой "экзистенциальной угрозы". Она заключается в скором появлении сильного искусственного интеллекта, который будет умней всего человечества вместе взятого, и почему-то захочет уничтожить его. Под это дело в ЕС уже кинулись разбираться с технологией привычными методами: либо запретить, либо отдать на откуп бюрократам. Координацией усилий занимается кембриджский Центр изучения экзистенциального риска, консультирующий английское правительство. Его возглавляет не абы кто, а целый барон Мартин Рис - бывший президент Королевского общества и придворный астролог астроном.

Почему европейцы так взъелись на технологию генерирования текста? Если вспомнить предыдущих кандидатов на роль глобально угрозы, можно понять, что дело в борьбе против американского технологического превосходства. Начиная с 50-х годов прошлого века материально-технической базой Скайнета среди прочего успели побывать ламповые компьютеры и интернет. Первые были основой американской промышленной революции, а второй - средством контроля информации в мировом масштабе. На этих технологиях США построили и до сих пор удерживают свою гегемонию. За счет LLM они собираются остаться на вершине мира в XXI веке.

Реальное ноу-хау технологии заключается вовсе не в автоматизации рабочих мест пролетариата умственного труда. Смысл ChatGPT - это аппроксимация доксы.

Технология работает следующим образом: вы передаете модели последовательность слов, а она подбирает самое вероятное следующее. Вероятность высчитывается исходя из текстов, использовавшихся для обучения. То есть, для ввода "мама мыла" самым вероятным выводом будет "раму". Магия с генерированием "осмысленных" текстов появляется, если обучить систему на колоссальных объемах информации, которые покрывают все возможные бытовые темы для разговора. Например, на всем реддите или твиттере. После этого нейросеть начнет выдавать грамматически осмысленное "мнение", являющееся среднестатистическим для авторов обучающего контента - реддиторов или твиттеровских. Это работает даже для вопросов, явного ответа на которые не было в обучающих данных. Другими словами, LLM аппроксимирует доксические высказывания по любым темам.

Эта технология обессмысливает существование массовой политики, которая собирает реакции масс, а потом на основе их анализа формирует и доносит до людей властные императивы. Теперь исследовать предубеждения и базовые реакции можно просто задавая вопросы большой языковой модели. Она же сгенерирует сколь угодно таргетированные пропагандистские послания, которые всегда будут бить в прямо цель. Единый электоральный спектакль, удерживающий общественное единство, становится ненужен.

Практически это означает полную автоматизацию государства и его неуязвимость к инспирациям через большие массы людей. LLM сделают с бюрократией то же самое, что антропоморфные роботы - с экономикой. Они исключат "человеческий фактор". Но если роботы обесценят для государства тела людей, то нейросети - их души.

ПС. Сначала хотел подробно написать про экзистенциальные угрозы и сингуляризм, но текст вылез за телеграмовский лимит. Поэтому решил вынести это на бусти, расширив и связав с ранней историей ИИ.

Чат || Подписка && Оглавление

BY История гиперинформации


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/hyperhistory/156

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

There was another possible development: Reuters also reported that Ukraine said that Belarus could soon join the invasion of Ukraine. However, the AFP, citing a Pentagon official, said the U.S. hasn’t yet seen evidence that Belarusian troops are in Ukraine. Under the Sebi Act, the regulator has the power to carry out search and seizure of books, registers, documents including electronics and digital devices from any person associated with the securities market. On Feb. 27, however, he admitted from his Russian-language account that "Telegram channels are increasingly becoming a source of unverified information related to Ukrainian events." On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands. Although some channels have been removed, the curation process is considered opaque and insufficient by analysts.
from in


Telegram История гиперинформации
FROM American