Telegram Group & Telegram Channel
Media is too big
VIEW IN TELEGRAM
Пи(дум) p(doom) 🤖
#ИИНЦИКЛОПЕДИЯ

Вероятность, с которой искусственный интеллект приведёт к гибели человечества или другой экзистенциальной катастрофе.

Термин p(doom) (от англ. "probability of doom" - "вероятность гибели") возник как внутренняя шутка в кругах исследователей ИИ, но к 2023 году стал широко обсуждаемой темой после выхода таких моделей, как GPT-4. Сейчас это своеобразный "ледокол" при общении между специалистами по безопасности ИИ, быстрый способ понять отношение собеседника к рискам искусственного интеллекта.

Почему это важно
Несмотря на кажущуюся несерьёзность, p(doom) отражает реальную озабоченность экспертов потенциальными рисками продвинутых систем ИИ, особенно на пути к искусственному общему интеллекту (AGI). Это также показатель растущего осознания необходимости обсуждать и минимизировать экзистенциальные риски.
Ключевые особенности

Числовое выражение: обычно представляется как процент от 0% до 100%
Субъективная оценка: основана на личном восприятии развития технологий ИИ
Широкий разброс мнений: от 1% до 99% в зависимости от эксперта
Показатель отношения к рискам: отражает взгляд человека на безопасность ИИ


Оценки p(doom) сильно различаются даже среди ведущих специалистов. Например, опрос 2023 года показал среднее значение 14,4% среди исследователей ИИ, с медианой 5%. Что интересно, значения часто коррелируют с профессиональной деятельностью: те, кто напрямую работает над созданием сильного ИИ, как правило, дают более высокие оценки.

У меня нет своей чёткой оценки p(doom) – слишком много переменных и неизвестных в этом уравнении. Склоняюсь к тому, что риски существуют, но работа над безопасностью ИИ может существенно их снизить. Важнее не конкретное число, а осознание необходимости ответственного подхода к развитию ИИ.

На видео Кевин Роуз делится мыслями о том что судьба человечества решается без нас.

Для дальнейшего изучения
- Опрос AI Impacts о p(doom) среди исследователей
- The Case for Taking AI Seriously as a Threat to Humanity
- Исследование ИИ 2027

Сергей Булаев AI 🤖 - об AI и не только



group-telegram.com/sergiobulaev/1248
Create:
Last Update:

Пи(дум) p(doom) 🤖
#ИИНЦИКЛОПЕДИЯ

Вероятность, с которой искусственный интеллект приведёт к гибели человечества или другой экзистенциальной катастрофе.

Термин p(doom) (от англ. "probability of doom" - "вероятность гибели") возник как внутренняя шутка в кругах исследователей ИИ, но к 2023 году стал широко обсуждаемой темой после выхода таких моделей, как GPT-4. Сейчас это своеобразный "ледокол" при общении между специалистами по безопасности ИИ, быстрый способ понять отношение собеседника к рискам искусственного интеллекта.

Почему это важно
Несмотря на кажущуюся несерьёзность, p(doom) отражает реальную озабоченность экспертов потенциальными рисками продвинутых систем ИИ, особенно на пути к искусственному общему интеллекту (AGI). Это также показатель растущего осознания необходимости обсуждать и минимизировать экзистенциальные риски.
Ключевые особенности

Числовое выражение: обычно представляется как процент от 0% до 100%
Субъективная оценка: основана на личном восприятии развития технологий ИИ
Широкий разброс мнений: от 1% до 99% в зависимости от эксперта
Показатель отношения к рискам: отражает взгляд человека на безопасность ИИ


Оценки p(doom) сильно различаются даже среди ведущих специалистов. Например, опрос 2023 года показал среднее значение 14,4% среди исследователей ИИ, с медианой 5%. Что интересно, значения часто коррелируют с профессиональной деятельностью: те, кто напрямую работает над созданием сильного ИИ, как правило, дают более высокие оценки.

У меня нет своей чёткой оценки p(doom) – слишком много переменных и неизвестных в этом уравнении. Склоняюсь к тому, что риски существуют, но работа над безопасностью ИИ может существенно их снизить. Важнее не конкретное число, а осознание необходимости ответственного подхода к развитию ИИ.

На видео Кевин Роуз делится мыслями о том что судьба человечества решается без нас.

Для дальнейшего изучения
- Опрос AI Impacts о p(doom) среди исследователей
- The Case for Taking AI Seriously as a Threat to Humanity
- Исследование ИИ 2027

Сергей Булаев AI 🤖 - об AI и не только

BY Сергей Булаев AI 🤖


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/sergiobulaev/1248

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

However, the perpetrators of such frauds are now adopting new methods and technologies to defraud the investors. Ukrainian forces have since put up a strong resistance to the Russian troops amid the war that has left hundreds of Ukrainian civilians, including children, dead, according to the United Nations. Ukrainian and international officials have accused Russia of targeting civilian populations with shelling and bombardments. On December 23rd, 2020, Pavel Durov posted to his channel that the company would need to start generating revenue. In early 2021, he added that any advertising on the platform would not use user data for targeting, and that it would be focused on “large one-to-many channels.” He pledged that ads would be “non-intrusive” and that most users would simply not notice any change. Either way, Durov says that he withdrew his resignation but that he was ousted from his company anyway. Subsequently, control of the company was reportedly handed to oligarchs Alisher Usmanov and Igor Sechin, both allegedly close associates of Russian leader Vladimir Putin. Also in the latest update is the ability for users to create a unique @username from the Settings page, providing others with an easy way to contact them via Search or their t.me/username link without sharing their phone number.
from in


Telegram Сергей Булаев AI 🤖
FROM American