Telegram Group & Telegram Channel
Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.
🔥9👎32👍2



group-telegram.com/antidigital/7915
Create:
Last Update:

Манхэттенский проект - 2.0

Бывший сотрудник команды Ильи Суцкевера, отвечавшей в OpenAI за безопасность моделей ИИ, Леопольд Ашенбреннер выпустил аналитический документ о ближайшем будущем ИИ (а вот тут разговор с ним), в котором в частности утверждает, что в ближайшие несколько лет, на горизонте 26-28 года в США неизбежно (вне зависимости от того, кто станет президентом) возникнет государственный проект по созданию «суперинтеллекта» по аналогии с Манхэттенским, поскольку, как и с ядерной бомбой, даже месяцы преимущества в его создании станут критическими для будущего страны.

Сверхинтеллект – это в буквальном смысле аналог ядерной бомбы. А потому государству придется национализировать его создание (не хотите же вы, чтобы у стартапов из Сан-Франциско, типа Убера, было по ядерной кнопке? Представьте Илона Маска с бомбой в одной руке и косяком в другой).

Для самых патриотически озабоченных: Россия в докладе упоминается пару раз наряду с Северной Кореей, как государство-изгой, от которого будет необходимо оборонять секреты AGI, чтобы она потом не держала весь мир в заложниках, а главным противником Леопольд видит Коммунистическую партию Китая (именно так, а не страну Китай), способную сегодня украсть любой технологический секрет из совершенно не готовых к этому частных лабораторий:

При нынешнем курсе мы можем отказаться от любых американских усилий в области AGI; Китай может быстро украсть все алгоритмические прорывы и модельные веса (буквально копию суперинтеллекта) напрямую. Неясно даже, сможем ли мы при нынешнем курсе достичь «защищенной от Северной Кореи» безопасности сверхинтеллекта. В мире частных стартапов, разрабатывающих АГИ, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Чтобы избежать этого в будущей конструкции международной безопасности придется использовать режим нераспространения AGI так же, как он действует сейчас в области ядерного оружия, уверен Ашенбреннер. И США не справятся одни, придется создать международную коалицию, как из западных стран, так и не слишком демократичных, чтобы обеспечить безопасность AGI (в частности – цепочку поставок чипов), а после создать структуры типа МАГАТЭ.

И вот к 27/28 наступает эндшпиль. К 28/29 году начнется взрывное развитие интеллекта; к 2030 году мы соберем суперинтеллект во всей его силе и мощи. Перед теми, кого поставят во главе проекта, будет стоять чертовски сложная задача: создать AGI, причем быстро; перевести американскую экономику на военные рельсы, чтобы произвести сотни миллионов графических процессоров; утвердить все это, вычистить шпионов и отразить тотальные атаки Компартии Китая; каким-то образом управлять сотней миллионов AGI, яростно автоматизирующих исследования ИИ, совершающих десятилетний скачок за год и вскоре создающих системы ИИ, намного более умные, чем самые умные люди; как-то удержать ситуацию, чтобы она не сошла с рельсов и не породила сверхинтеллект-изгоя, который попытается захватить контроль у своих человеческих надсмотрщиков; использовать эти сверхинтеллекты для разработки новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и при этом ориентироваться в самой напряженной международной ситуации, которую когда-либо приходилось наблюдать. И лучше бы они были хороши в этом, скажу я вам.


Апокалиптическая картина, но напомню, чувак долго работал в самом сердце самого передового ИИ-разработчика.

По его мнению мы сейчас примерно в районе 1939 года, когда Эйнштейн написал подготовленное Сцилардом письмо президенту Рузвельту с предупреждением о разработке атомной бомбы в Третьем Рейхе и о необходимости начала широкомасштабных атомных исследований в США. В какой-то момент правительству придется объединить всех этих частных исследователей в одну супер-лабораторию по аналогии созданной в 40-е в пустыне в Лос-Аламосе ядерной лаборатории, считает он. Это потребуется для обеспечения безопасности исследований, в том числе физической.

«До встречи в пустыне», — так заканчивается документ.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/7915

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Someone posing as a Ukrainian citizen just joins the chat and starts spreading misinformation, or gathers data, like the location of shelters," Tsekhanovska said, noting how false messages have urged Ukrainians to turn off their phones at a specific time of night, citing cybersafety. "There are several million Russians who can lift their head up from propaganda and try to look for other sources, and I'd say that most look for it on Telegram," he said. The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel. The channel appears to be part of the broader information war that has developed following Russia's invasion of Ukraine. The Kremlin has paid Russian TikTok influencers to push propaganda, according to a Vice News investigation, while ProPublica found that fake Russian fact check videos had been viewed over a million times on Telegram. Telegram has gained a reputation as the “secure” communications app in the post-Soviet states, but whenever you make choices about your digital security, it’s important to start by asking yourself, “What exactly am I securing? And who am I securing it from?” These questions should inform your decisions about whether you are using the right tool or platform for your digital security needs. Telegram is certainly not the most secure messaging app on the market right now. Its security model requires users to place a great deal of trust in Telegram’s ability to protect user data. For some users, this may be good enough for now. For others, it may be wiser to move to a different platform for certain kinds of high-risk communications.
from hk


Telegram Нецифровая экономика
FROM American