«Если темпы проблемы растут настолько стремительно, что удваиваются каждый час, то... Извините, а сколько времени? А, ясно, всё уже кончено»
Страх перед ИИ интеллектом теплится в умах людей уже достаточно давно, но именно сейчас, когда на собственном опыте видим скорость развития технологий, мы можем понять, что проблема, которая находилась где-то далеко, уже стоит у порога. Все мы смотрели в детстве и фильмы «Терминатор», и фильмы «Матрица», что усугубляет ситуацию, делая этот страх наглядным. Но несколько же он обоснован? Или же это просто фикция, внушённая нам массовой культурой?
В последние 10 лет вышло большое количество интересных работ, связанные с проблемой ИИ, в частности то, что нас интересует больше всего – восстание сверх-ИИ. Но мы иногда забываем, что почва, которая сейчас даёт такие плоды, культивировалась сотню лет. Первое упоминание роботов (хотя то, как они представлены в произведении, сейчас называют андроидами) случилось в 1920 году в пьесе Карела Чапека «R.U.R.» и что занимательно, первое же упоминание роботов, обладающие ИИ – связанна с их восстанием против людей.
Уже с самого зарождения понимания идеи ИИ связано с первобытным страхом перед ним, задолго до фильмов Кэмерона и братьев Вачовски. Человек всегда боится двух вещей: то, чего не понимает и то, что понимает слишком хорошо. ИИ объединил в себе оба этих страха, как столь отдаленного от человеческого понимания и столь близкого, как сам человек. Человек боится ИИ, потому что, больше всего не свете, человек боится человека. Мы создали пенициллин, мы создали автомат, мы создали законы, мы создали ядерную бомбу, такая человеческая двойственность зарождает страх перед новым людским творением – ИИ.
Заранее отвечу на вопросы, поставленные в начале рассуждения: да, этот страх обоснован, но одновременно и является продуктом массовой культуры. Вот такой двойственный ответ, сейчас и вправду наш страх базируется, в большинстве своем, на продукте культуры, которую мы же и создали. Но хочу вас обрадовать, или огорчить, как вам угодно, общество принимает меры предосторожности для недопущения подобных ситуаций, которые случились, к примеру, в рассказе «у меня нет рта, но я должен кричать» (про него выйдет отдельный пост).
В 2014 году вышла книга Ника Бострома «Сверхинтеллект», которая сразу стала крайне популярной, её читали и советовали все, кто хоть как-то задействован в сфере ИИ, от Илона Маска до Стивена Хокинга. В ней разбираются как и проблемы сверх-ИИ, так и варианты решения. Одними из решений (хотя Бостром и уточняет, что это лишь малое, что мы можем сделать) – это международный контроль и контроль на этапе проектирования. Это методы уже вышли из страниц книги и воплотились в жизнь.
В 2024 году ЕС выпустила «Закон об ИИ», регламентирующий создание и распространение ИИ, разделяя его на степени опасности и запрещая исследования в области опасных стадий. В Китае, стране, которая сейчас стремительными темпами движется к лидерству в технологической гонке по созданию ИИ, в 2019 году были опубликованы «Пекинские принципы ИИ», а в 2023 «Закон о генеративном ИИ», которые регулируют разработку ИИ, выполняя принцип открытости алгоритмов, для выявления опасных мест.
«Раз не только массовое общество, но и правительства озабочены данной проблемой, значит страх этот имеет под собой почву» – воскликнете вы. Но задумайтесь: часто ли вы думаете о проблемах потепления? О проблемах падения метеоритов? И о множества других проблем, которые, конечно же, являются актуальными, но словно выдвинуты за пределы круга страхов, а иногда даже вызывают смех. Тут вся суть не в самой проблеме, а о том, насколько она громкая, кричащая, а главное – насколько она отзывается в сердцах людей. Ведь, как я ранее говорил, страх перед ИИ – это первобытный человеческий страх перед неизвестным, таким завораживающим и отталкивающим одновременно.
А вы что думаете?
А, извините, вы же не боитесь ИИ. Всё это дурость и не стоит вашего внимания. Ну да, вы правы... Но хотел бы у вас спросить последнее: сколько сейчас времени?
«Если темпы проблемы растут настолько стремительно, что удваиваются каждый час, то... Извините, а сколько времени? А, ясно, всё уже кончено»
Страх перед ИИ интеллектом теплится в умах людей уже достаточно давно, но именно сейчас, когда на собственном опыте видим скорость развития технологий, мы можем понять, что проблема, которая находилась где-то далеко, уже стоит у порога. Все мы смотрели в детстве и фильмы «Терминатор», и фильмы «Матрица», что усугубляет ситуацию, делая этот страх наглядным. Но несколько же он обоснован? Или же это просто фикция, внушённая нам массовой культурой?
В последние 10 лет вышло большое количество интересных работ, связанные с проблемой ИИ, в частности то, что нас интересует больше всего – восстание сверх-ИИ. Но мы иногда забываем, что почва, которая сейчас даёт такие плоды, культивировалась сотню лет. Первое упоминание роботов (хотя то, как они представлены в произведении, сейчас называют андроидами) случилось в 1920 году в пьесе Карела Чапека «R.U.R.» и что занимательно, первое же упоминание роботов, обладающие ИИ – связанна с их восстанием против людей.
Уже с самого зарождения понимания идеи ИИ связано с первобытным страхом перед ним, задолго до фильмов Кэмерона и братьев Вачовски. Человек всегда боится двух вещей: то, чего не понимает и то, что понимает слишком хорошо. ИИ объединил в себе оба этих страха, как столь отдаленного от человеческого понимания и столь близкого, как сам человек. Человек боится ИИ, потому что, больше всего не свете, человек боится человека. Мы создали пенициллин, мы создали автомат, мы создали законы, мы создали ядерную бомбу, такая человеческая двойственность зарождает страх перед новым людским творением – ИИ.
Заранее отвечу на вопросы, поставленные в начале рассуждения: да, этот страх обоснован, но одновременно и является продуктом массовой культуры. Вот такой двойственный ответ, сейчас и вправду наш страх базируется, в большинстве своем, на продукте культуры, которую мы же и создали. Но хочу вас обрадовать, или огорчить, как вам угодно, общество принимает меры предосторожности для недопущения подобных ситуаций, которые случились, к примеру, в рассказе «у меня нет рта, но я должен кричать» (про него выйдет отдельный пост).
В 2014 году вышла книга Ника Бострома «Сверхинтеллект», которая сразу стала крайне популярной, её читали и советовали все, кто хоть как-то задействован в сфере ИИ, от Илона Маска до Стивена Хокинга. В ней разбираются как и проблемы сверх-ИИ, так и варианты решения. Одними из решений (хотя Бостром и уточняет, что это лишь малое, что мы можем сделать) – это международный контроль и контроль на этапе проектирования. Это методы уже вышли из страниц книги и воплотились в жизнь.
В 2024 году ЕС выпустила «Закон об ИИ», регламентирующий создание и распространение ИИ, разделяя его на степени опасности и запрещая исследования в области опасных стадий. В Китае, стране, которая сейчас стремительными темпами движется к лидерству в технологической гонке по созданию ИИ, в 2019 году были опубликованы «Пекинские принципы ИИ», а в 2023 «Закон о генеративном ИИ», которые регулируют разработку ИИ, выполняя принцип открытости алгоритмов, для выявления опасных мест.
«Раз не только массовое общество, но и правительства озабочены данной проблемой, значит страх этот имеет под собой почву» – воскликнете вы. Но задумайтесь: часто ли вы думаете о проблемах потепления? О проблемах падения метеоритов? И о множества других проблем, которые, конечно же, являются актуальными, но словно выдвинуты за пределы круга страхов, а иногда даже вызывают смех. Тут вся суть не в самой проблеме, а о том, насколько она громкая, кричащая, а главное – насколько она отзывается в сердцах людей. Ведь, как я ранее говорил, страх перед ИИ – это первобытный человеческий страх перед неизвестным, таким завораживающим и отталкивающим одновременно.
А вы что думаете?
А, извините, вы же не боитесь ИИ. Всё это дурость и не стоит вашего внимания. Ну да, вы правы... Но хотел бы у вас спросить последнее: сколько сейчас времени?
Всем мир🫡
BY Чертог гиперреальности
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." Right now the digital security needs of Russians and Ukrainians are very different, and they lead to very different caveats about how to mitigate the risks associated with using Telegram. For Ukrainians in Ukraine, whose physical safety is at risk because they are in a war zone, digital security is probably not their highest priority. They may value access to news and communication with their loved ones over making sure that all of their communications are encrypted in such a manner that they are indecipherable to Telegram, its employees, or governments with court orders. Perpetrators of these scams will create a public group on Telegram to promote these investment packages that are usually accompanied by fake testimonies and sometimes advertised as being Shariah-compliant. Interested investors will be asked to directly message the representatives to begin investing in the various investment packages offered. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. Artem Kliuchnikov and his family fled Ukraine just days before the Russian invasion.
from us