Telegram Group & Telegram Channel
Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.
🔥9👎32👍2



group-telegram.com/antidigital/7915
Create:
Last Update:

Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/7915

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Official government accounts have also spread fake fact checks. An official Twitter account for the Russia diplomatic mission in Geneva shared a fake debunking video claiming without evidence that "Western and Ukrainian media are creating thousands of fake news on Russia every day." The video, which has amassed almost 30,000 views, offered a "how-to" spot misinformation. In the United States, Telegram's lower public profile has helped it mostly avoid high level scrutiny from Congress, but it has not gone unnoticed. Ukrainian forces successfully attacked Russian vehicles in the capital city of Kyiv thanks to a public tip made through the encrypted messaging app Telegram, Ukraine's top law-enforcement agency said on Tuesday. "There are several million Russians who can lift their head up from propaganda and try to look for other sources, and I'd say that most look for it on Telegram," he said. On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands.
from ua


Telegram Нецифровая экономика
FROM American