Telegram Group & Telegram Channel
Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.
🔥9👎32👍2



group-telegram.com/antidigital/7915
Create:
Last Update:

Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/7915

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

If you initiate a Secret Chat, however, then these communications are end-to-end encrypted and are tied to the device you are using. That means it’s less convenient to access them across multiple platforms, but you are at far less risk of snooping. Back in the day, Secret Chats received some praise from the EFF, but the fact that its standard system isn’t as secure earned it some criticism. If you’re looking for something that is considered more reliable by privacy advocates, then Signal is the EFF’s preferred platform, although that too is not without some caveats. After fleeing Russia, the brothers founded Telegram as a way to communicate outside the Kremlin's orbit. They now run it from Dubai, and Pavel Durov says it has more than 500 million monthly active users. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice. Telegram has gained a reputation as the “secure” communications app in the post-Soviet states, but whenever you make choices about your digital security, it’s important to start by asking yourself, “What exactly am I securing? And who am I securing it from?” These questions should inform your decisions about whether you are using the right tool or platform for your digital security needs. Telegram is certainly not the most secure messaging app on the market right now. Its security model requires users to place a great deal of trust in Telegram’s ability to protect user data. For some users, this may be good enough for now. For others, it may be wiser to move to a different platform for certain kinds of high-risk communications. In 2014, Pavel Durov fled the country after allies of the Kremlin took control of the social networking site most know just as VK. Russia's intelligence agency had asked Durov to turn over the data of anti-Kremlin protesters. Durov refused to do so.
from br


Telegram Нецифровая экономика
FROM American