Telegram Group & Telegram Channel
Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1

Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.

Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:

1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.

2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.

Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.

Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.

Далее объясню, что считаю конструктивной и неконструктивной дискуссией.



group-telegram.com/mercury_octave/14
Create:
Last Update:

Гуманитарные и этические вопросы в области инвазивных нейроинтерфейсов. Часть 1

Я убежден, что гуманитарные, этические, философские и религиозные вопросы в области нейроинтерфейсов имеют смысл только при обсуждении потенциальных немедицинских применений. Вопросы в стиле «а надо ли» и «какие будут последствия» применительно к возвращению зрения слепым или двигательных функций — парализованным — выглядят максимально бессмысленно. Потому далее я исхожу из того, что мы обсуждаем вопросы светлого киберпанк-будущего: улучшения когнитивных функций, слияния с искусственным интеллектом и прочего переноса сознания из одного тела в другое.

Второй ключевой аспект связан с реалистичностью этих киберпанк-фантазий. Если их нельзя воплотить на фундаментальном уровне в принципе, то и обсуждать нечего — в таком случае нейроинтерфейсы останутся одной из медицинских технологий. Потому здесь мы будем исходить из того, что киберпанк-будущее потенциально реализуемо. В этом случае нейроинтерфейсы — «критическая технология» для человечества, а доступ к ней столь же важен, как и доступ к технологиям ядерного оружия, микроэлектроники и искусственного интеллекта. Пару аргументов:

1) Нейроинтерфейсы — потенциально один из немногих ответов человечества на экзистенциальный вызов искусственного интеллекта. Такой позиции придерживается, например, Илон Маск. Ее суть, если утрировать, в том, что человеку для того, чтобы не проиграть ИИ в эволюционной гонке, необходимо с ним слиться. Тогда вопрос о том, что ИИ стал на порядок умнее людей, а люди — ушли в прошлое, отпадет, поскольку не будет четких границ между искусственным и естественным интеллектом.

2) Корпорации или целые страны, где люди будут в разы умнее других, быстро выиграют конкуренцию во всех сферах у остальных игроков и установят полную экономическую и технологическую гегемонию.

Таким образом, любые вопросы вокруг таких технологий будут обсуждаться в условиях экзистенциальной «гонки вооружений». За примером далеко ходить не надо. Когда тема ИИ только набирала обороты в публичной дискуссии, были робкие попытки поднять гуманитарные вопросы, собрать конференции, выработать свод правил. Но очень быстро эту повестку смела технологическая гонка.

Итак, или обсуждать гуманитарные вопросы в сфере нейроинтерфейсов нет смысла, поскольку они будут лишь одной из нишевых медицинских технологий, или обсуждать их необходимо, но делать это надо исходя из реалий «гонки вооружений». Я придерживаюсь второй позиции — такие обсуждения критически важны, чтобы избежать катастроф вроде талидомидовой. Но при «гонке вооружений» надо понимать, что обсуждать конструктивно, а что — нет. Так, разработать некий набор правил, чтобы обезопасить себя от катастроф, вполне реально. Если же попытаться запретить развитие таких технологий, то придется столкнуться с реальностью, где или это не получится, или другие игроки эту работу продолжат. А это значит, что через время твоя корпорация или государство в лучшем случае отстанет, в худшем — перестанет существовать.

Далее объясню, что считаю конструктивной и неконструктивной дискуссией.

BY Капли ртути


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/mercury_octave/14

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations. The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content. As a result, the pandemic saw many newcomers to Telegram, including prominent anti-vaccine activists who used the app's hands-off approach to share false information on shots, a study from the Institute for Strategic Dialogue shows. Telegram boasts 500 million users, who share information individually and in groups in relative security. But Telegram's use as a one-way broadcast channel — which followers can join but not reply to — means content from inauthentic accounts can easily reach large, captive and eager audiences.
from jp


Telegram Капли ртути
FROM American