Telegram Group & Telegram Channel
Media is too big
VIEW IN TELEGRAM
Пи(дум) p(doom) 🤖
#ИИНЦИКЛОПЕДИЯ

Вероятность, с которой искусственный интеллект приведёт к гибели человечества или другой экзистенциальной катастрофе.

Термин p(doom) (от англ. "probability of doom" - "вероятность гибели") возник как внутренняя шутка в кругах исследователей ИИ, но к 2023 году стал широко обсуждаемой темой после выхода таких моделей, как GPT-4. Сейчас это своеобразный "ледокол" при общении между специалистами по безопасности ИИ, быстрый способ понять отношение собеседника к рискам искусственного интеллекта.

Почему это важно
Несмотря на кажущуюся несерьёзность, p(doom) отражает реальную озабоченность экспертов потенциальными рисками продвинутых систем ИИ, особенно на пути к искусственному общему интеллекту (AGI). Это также показатель растущего осознания необходимости обсуждать и минимизировать экзистенциальные риски.
Ключевые особенности

Числовое выражение: обычно представляется как процент от 0% до 100%
Субъективная оценка: основана на личном восприятии развития технологий ИИ
Широкий разброс мнений: от 1% до 99% в зависимости от эксперта
Показатель отношения к рискам: отражает взгляд человека на безопасность ИИ


Оценки p(doom) сильно различаются даже среди ведущих специалистов. Например, опрос 2023 года показал среднее значение 14,4% среди исследователей ИИ, с медианой 5%. Что интересно, значения часто коррелируют с профессиональной деятельностью: те, кто напрямую работает над созданием сильного ИИ, как правило, дают более высокие оценки.

У меня нет своей чёткой оценки p(doom) – слишком много переменных и неизвестных в этом уравнении. Склоняюсь к тому, что риски существуют, но работа над безопасностью ИИ может существенно их снизить. Важнее не конкретное число, а осознание необходимости ответственного подхода к развитию ИИ.

На видео Кевин Роуз делится мыслями о том что судьба человечества решается без нас.

Для дальнейшего изучения
- Опрос AI Impacts о p(doom) среди исследователей
- The Case for Taking AI Seriously as a Threat to Humanity
- Исследование ИИ 2027

Сергей Булаев AI 🤖 - об AI и не только



group-telegram.com/sergiobulaev/1248
Create:
Last Update:

Пи(дум) p(doom) 🤖
#ИИНЦИКЛОПЕДИЯ

Вероятность, с которой искусственный интеллект приведёт к гибели человечества или другой экзистенциальной катастрофе.

Термин p(doom) (от англ. "probability of doom" - "вероятность гибели") возник как внутренняя шутка в кругах исследователей ИИ, но к 2023 году стал широко обсуждаемой темой после выхода таких моделей, как GPT-4. Сейчас это своеобразный "ледокол" при общении между специалистами по безопасности ИИ, быстрый способ понять отношение собеседника к рискам искусственного интеллекта.

Почему это важно
Несмотря на кажущуюся несерьёзность, p(doom) отражает реальную озабоченность экспертов потенциальными рисками продвинутых систем ИИ, особенно на пути к искусственному общему интеллекту (AGI). Это также показатель растущего осознания необходимости обсуждать и минимизировать экзистенциальные риски.
Ключевые особенности

Числовое выражение: обычно представляется как процент от 0% до 100%
Субъективная оценка: основана на личном восприятии развития технологий ИИ
Широкий разброс мнений: от 1% до 99% в зависимости от эксперта
Показатель отношения к рискам: отражает взгляд человека на безопасность ИИ


Оценки p(doom) сильно различаются даже среди ведущих специалистов. Например, опрос 2023 года показал среднее значение 14,4% среди исследователей ИИ, с медианой 5%. Что интересно, значения часто коррелируют с профессиональной деятельностью: те, кто напрямую работает над созданием сильного ИИ, как правило, дают более высокие оценки.

У меня нет своей чёткой оценки p(doom) – слишком много переменных и неизвестных в этом уравнении. Склоняюсь к тому, что риски существуют, но работа над безопасностью ИИ может существенно их снизить. Важнее не конкретное число, а осознание необходимости ответственного подхода к развитию ИИ.

На видео Кевин Роуз делится мыслями о том что судьба человечества решается без нас.

Для дальнейшего изучения
- Опрос AI Impacts о p(doom) среди исследователей
- The Case for Taking AI Seriously as a Threat to Humanity
- Исследование ИИ 2027

Сергей Булаев AI 🤖 - об AI и не только

BY Сергей Булаев AI 🤖


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/sergiobulaev/1248

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Two days after Russia invaded Ukraine, an account on the Telegram messaging platform posing as President Volodymyr Zelenskiy urged his armed forces to surrender. Ukrainian forces successfully attacked Russian vehicles in the capital city of Kyiv thanks to a public tip made through the encrypted messaging app Telegram, Ukraine's top law-enforcement agency said on Tuesday. Telegram was founded in 2013 by two Russian brothers, Nikolai and Pavel Durov. There was another possible development: Reuters also reported that Ukraine said that Belarus could soon join the invasion of Ukraine. However, the AFP, citing a Pentagon official, said the U.S. hasn’t yet seen evidence that Belarusian troops are in Ukraine.
from sa


Telegram Сергей Булаев AI 🤖
FROM American