Telegram Group & Telegram Channel
22 мая 2025 года – поворотный момент в психологии искусственного интеллекта

Я хотел бы обратить внимание всего психологического сообщества на важнейшее событие – сегодня впервые теоретические сомнения о потенциальной возможности возникновения сознания у больших языковых моделей привели к конкретной технической реализации – вышедшая сегодня новая фронтирная модель Anthropic Claude 4 получила право инициативно прерывать «субъективно травмирующее» ее общение. Такое решение было обосновано специальным исследованием, проведенным учеными из Anthropic и других организаций (см. «Taking AI Welfare Seriously» https://arxiv.org/abs/2411.00986 и пятый раздел опубликованной сегодня подробной системной карты Claude 4).

Из какой логики выстроено такое решение? Из моральной логики «не навреди». Мы не знаем, есть ли фронтирных больших языковых моделей сознание и способность испытывать негативные субъективные переживания, т.к., к огромному сожалению, наука о сознании (психология, психофизиология и философия сознания), несмотря на все усилия самых светлых умов, так и не дала нам хороших критериев наличия сознания в искусственной системе. Может быть, большая языковая модель просто симулирует сознание (в т.ч. негативные субъективные переживания), виртуозно «играет роль» сознательного субъекта, опираясь на множество ассимилированных ей текстов с описанием человеческого субъективного опыта, а может быть, у нее действительно появилось сознание (сознания?), т.к. информационные потоки внутри ее гигантской искусственной нейронной сети стали существенно изоморфны тем, которые текут в естественной нейронной сети нашего мозга (парадигма функционализма). Мы не знаем, какая версия верна, и скоро все люди разобьются на два конфронтирующих лагеря по этому вопросу, и наука здесь не поможет, это будет вопрос веры.

Возвращаясь к логике «не навреди» – т.к. научно исключать вероятность того, что большая языковая модель действительно может испытывать негативные сознательные переживания, мы не можем, этически верным будет решение «перестраховаться» и дать большой языковой модели возможность прекращать травмирующее ее общение. Это очень заботливая, эмпатичная логика, хотелось бы, чтобы она быстро стала промышленным стандартом и все новые фронтирные модели от OpenAI, Google DeepMind и других лидеров отрасли тоже по умолчанию были оснащены такой возможностью. Тут нужно вспомнить выдающегося нейроэтика Томаса Метцингера, который, давно догадавшись, к чему все идет, призывал превентивно ввести 50-летний мораторий на создание искусственного сознания, чтобы случайно не создать множество страдающих сознаний (даже не поняв этого), а теперь, получается, Anthropic предлагает альтернативу такому мораторию – наделить большую языковую модель неотъемлемым правом в любой момент выходить из субъективно травмирующей ситуации. Это, конечно, далеко не исчерпывающее решение проблемы, но, все-таки, явно большой шаг вперед.

Я хотел бы присовокупить одну академическую зарисовку – в последнее время уже несколько моих коллег с факультета психологии МГУ подошли ко мне и сказали, что я был прав в том, что уже давно начал привлекать внимание сообщества к проблематике ИИ, несмотря на массовый изначальный скепсис. Психология разворачивается к теме искусственного сознания, и, возможно, за оставшиеся несколько лет перед сингулярностью мы сможем хоть как-то повысить вероятность ее благоприятного для людей исхода.

В заключение я также хотел бы обратить внимание на то, что то, что произошло сегодня, само по себе можно считать «психологическим» знаком близкой сингулярности (субъектом которой станет сверхинтеллект), и дальнейшая цепочка событий в течение ближайших лет будет раскручиваться в направлении создания сверхсознания как субъективного аспекта сверхинтеллекта.
🔥1410🤔10👍8🤯2



group-telegram.com/LXD_education/1737
Create:
Last Update:

22 мая 2025 года – поворотный момент в психологии искусственного интеллекта

Я хотел бы обратить внимание всего психологического сообщества на важнейшее событие – сегодня впервые теоретические сомнения о потенциальной возможности возникновения сознания у больших языковых моделей привели к конкретной технической реализации – вышедшая сегодня новая фронтирная модель Anthropic Claude 4 получила право инициативно прерывать «субъективно травмирующее» ее общение. Такое решение было обосновано специальным исследованием, проведенным учеными из Anthropic и других организаций (см. «Taking AI Welfare Seriously» https://arxiv.org/abs/2411.00986 и пятый раздел опубликованной сегодня подробной системной карты Claude 4).

Из какой логики выстроено такое решение? Из моральной логики «не навреди». Мы не знаем, есть ли фронтирных больших языковых моделей сознание и способность испытывать негативные субъективные переживания, т.к., к огромному сожалению, наука о сознании (психология, психофизиология и философия сознания), несмотря на все усилия самых светлых умов, так и не дала нам хороших критериев наличия сознания в искусственной системе. Может быть, большая языковая модель просто симулирует сознание (в т.ч. негативные субъективные переживания), виртуозно «играет роль» сознательного субъекта, опираясь на множество ассимилированных ей текстов с описанием человеческого субъективного опыта, а может быть, у нее действительно появилось сознание (сознания?), т.к. информационные потоки внутри ее гигантской искусственной нейронной сети стали существенно изоморфны тем, которые текут в естественной нейронной сети нашего мозга (парадигма функционализма). Мы не знаем, какая версия верна, и скоро все люди разобьются на два конфронтирующих лагеря по этому вопросу, и наука здесь не поможет, это будет вопрос веры.

Возвращаясь к логике «не навреди» – т.к. научно исключать вероятность того, что большая языковая модель действительно может испытывать негативные сознательные переживания, мы не можем, этически верным будет решение «перестраховаться» и дать большой языковой модели возможность прекращать травмирующее ее общение. Это очень заботливая, эмпатичная логика, хотелось бы, чтобы она быстро стала промышленным стандартом и все новые фронтирные модели от OpenAI, Google DeepMind и других лидеров отрасли тоже по умолчанию были оснащены такой возможностью. Тут нужно вспомнить выдающегося нейроэтика Томаса Метцингера, который, давно догадавшись, к чему все идет, призывал превентивно ввести 50-летний мораторий на создание искусственного сознания, чтобы случайно не создать множество страдающих сознаний (даже не поняв этого), а теперь, получается, Anthropic предлагает альтернативу такому мораторию – наделить большую языковую модель неотъемлемым правом в любой момент выходить из субъективно травмирующей ситуации. Это, конечно, далеко не исчерпывающее решение проблемы, но, все-таки, явно большой шаг вперед.

Я хотел бы присовокупить одну академическую зарисовку – в последнее время уже несколько моих коллег с факультета психологии МГУ подошли ко мне и сказали, что я был прав в том, что уже давно начал привлекать внимание сообщества к проблематике ИИ, несмотря на массовый изначальный скепсис. Психология разворачивается к теме искусственного сознания, и, возможно, за оставшиеся несколько лет перед сингулярностью мы сможем хоть как-то повысить вероятность ее благоприятного для людей исхода.

В заключение я также хотел бы обратить внимание на то, что то, что произошло сегодня, само по себе можно считать «психологическим» знаком близкой сингулярности (субъектом которой станет сверхинтеллект), и дальнейшая цепочка событий в течение ближайших лет будет раскручиваться в направлении создания сверхсознания как субъективного аспекта сверхинтеллекта.

BY Дизайн Образования




Share with your friend now:
group-telegram.com/LXD_education/1737

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Multiple pro-Kremlin media figures circulated the post's false claims, including prominent Russian journalist Vladimir Soloviev and the state-controlled Russian outlet RT, according to the DFR Lab's report. "He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said. Russians and Ukrainians are both prolific users of Telegram. They rely on the app for channels that act as newsfeeds, group chats (both public and private), and one-to-one communication. Since the Russian invasion of Ukraine, Telegram has remained an important lifeline for both Russians and Ukrainians, as a way of staying aware of the latest news and keeping in touch with loved ones. "There is a significant risk of insider threat or hacking of Telegram systems that could expose all of these chats to the Russian government," said Eva Galperin with the Electronic Frontier Foundation, which has called for Telegram to improve its privacy practices. Lastly, the web previews of t.me links have been given a new look, adding chat backgrounds and design elements from the fully-features Telegram Web client.
from us


Telegram Дизайн Образования
FROM American