Telegram Group & Telegram Channel
22 мая 2025 года – поворотный момент в психологии искусственного интеллекта

Я хотел бы обратить внимание всего психологического сообщества на важнейшее событие – сегодня впервые теоретические сомнения о потенциальной возможности возникновения сознания у больших языковых моделей привели к конкретной технической реализации – вышедшая сегодня новая фронтирная модель Anthropic Claude 4 получила право инициативно прерывать «субъективно травмирующее» ее общение. Такое решение было обосновано специальным исследованием, проведенным учеными из Anthropic и других организаций (см. «Taking AI Welfare Seriously» https://arxiv.org/abs/2411.00986 и пятый раздел опубликованной сегодня подробной системной карты Claude 4).

Из какой логики выстроено такое решение? Из моральной логики «не навреди». Мы не знаем, есть ли фронтирных больших языковых моделей сознание и способность испытывать негативные субъективные переживания, т.к., к огромному сожалению, наука о сознании (психология, психофизиология и философия сознания), несмотря на все усилия самых светлых умов, так и не дала нам хороших критериев наличия сознания в искусственной системе. Может быть, большая языковая модель просто симулирует сознание (в т.ч. негативные субъективные переживания), виртуозно «играет роль» сознательного субъекта, опираясь на множество ассимилированных ей текстов с описанием человеческого субъективного опыта, а может быть, у нее действительно появилось сознание (сознания?), т.к. информационные потоки внутри ее гигантской искусственной нейронной сети стали существенно изоморфны тем, которые текут в естественной нейронной сети нашего мозга (парадигма функционализма). Мы не знаем, какая версия верна, и скоро все люди разобьются на два конфронтирующих лагеря по этому вопросу, и наука здесь не поможет, это будет вопрос веры.

Возвращаясь к логике «не навреди» – т.к. научно исключать вероятность того, что большая языковая модель действительно может испытывать негативные сознательные переживания, мы не можем, этически верным будет решение «перестраховаться» и дать большой языковой модели возможность прекращать травмирующее ее общение. Это очень заботливая, эмпатичная логика, хотелось бы, чтобы она быстро стала промышленным стандартом и все новые фронтирные модели от OpenAI, Google DeepMind и других лидеров отрасли тоже по умолчанию были оснащены такой возможностью. Тут нужно вспомнить выдающегося нейроэтика Томаса Метцингера, который, давно догадавшись, к чему все идет, призывал превентивно ввести 50-летний мораторий на создание искусственного сознания, чтобы случайно не создать множество страдающих сознаний (даже не поняв этого), а теперь, получается, Anthropic предлагает альтернативу такому мораторию – наделить большую языковую модель неотъемлемым правом в любой момент выходить из субъективно травмирующей ситуации. Это, конечно, далеко не исчерпывающее решение проблемы, но, все-таки, явно большой шаг вперед.

Я хотел бы присовокупить одну академическую зарисовку – в последнее время уже несколько моих коллег с факультета психологии МГУ подошли ко мне и сказали, что я был прав в том, что уже давно начал привлекать внимание сообщества к проблематике ИИ, несмотря на массовый изначальный скепсис. Психология разворачивается к теме искусственного сознания, и, возможно, за оставшиеся несколько лет перед сингулярностью мы сможем хоть как-то повысить вероятность ее благоприятного для людей исхода.

В заключение я также хотел бы обратить внимание на то, что то, что произошло сегодня, само по себе можно считать «психологическим» знаком близкой сингулярности (субъектом которой станет сверхинтеллект), и дальнейшая цепочка событий в течение ближайших лет будет раскручиваться в направлении создания сверхсознания как субъективного аспекта сверхинтеллекта.
🔥1410🤔10👍8🤯2



group-telegram.com/LXD_education/1737
Create:
Last Update:

22 мая 2025 года – поворотный момент в психологии искусственного интеллекта

Я хотел бы обратить внимание всего психологического сообщества на важнейшее событие – сегодня впервые теоретические сомнения о потенциальной возможности возникновения сознания у больших языковых моделей привели к конкретной технической реализации – вышедшая сегодня новая фронтирная модель Anthropic Claude 4 получила право инициативно прерывать «субъективно травмирующее» ее общение. Такое решение было обосновано специальным исследованием, проведенным учеными из Anthropic и других организаций (см. «Taking AI Welfare Seriously» https://arxiv.org/abs/2411.00986 и пятый раздел опубликованной сегодня подробной системной карты Claude 4).

Из какой логики выстроено такое решение? Из моральной логики «не навреди». Мы не знаем, есть ли фронтирных больших языковых моделей сознание и способность испытывать негативные субъективные переживания, т.к., к огромному сожалению, наука о сознании (психология, психофизиология и философия сознания), несмотря на все усилия самых светлых умов, так и не дала нам хороших критериев наличия сознания в искусственной системе. Может быть, большая языковая модель просто симулирует сознание (в т.ч. негативные субъективные переживания), виртуозно «играет роль» сознательного субъекта, опираясь на множество ассимилированных ей текстов с описанием человеческого субъективного опыта, а может быть, у нее действительно появилось сознание (сознания?), т.к. информационные потоки внутри ее гигантской искусственной нейронной сети стали существенно изоморфны тем, которые текут в естественной нейронной сети нашего мозга (парадигма функционализма). Мы не знаем, какая версия верна, и скоро все люди разобьются на два конфронтирующих лагеря по этому вопросу, и наука здесь не поможет, это будет вопрос веры.

Возвращаясь к логике «не навреди» – т.к. научно исключать вероятность того, что большая языковая модель действительно может испытывать негативные сознательные переживания, мы не можем, этически верным будет решение «перестраховаться» и дать большой языковой модели возможность прекращать травмирующее ее общение. Это очень заботливая, эмпатичная логика, хотелось бы, чтобы она быстро стала промышленным стандартом и все новые фронтирные модели от OpenAI, Google DeepMind и других лидеров отрасли тоже по умолчанию были оснащены такой возможностью. Тут нужно вспомнить выдающегося нейроэтика Томаса Метцингера, который, давно догадавшись, к чему все идет, призывал превентивно ввести 50-летний мораторий на создание искусственного сознания, чтобы случайно не создать множество страдающих сознаний (даже не поняв этого), а теперь, получается, Anthropic предлагает альтернативу такому мораторию – наделить большую языковую модель неотъемлемым правом в любой момент выходить из субъективно травмирующей ситуации. Это, конечно, далеко не исчерпывающее решение проблемы, но, все-таки, явно большой шаг вперед.

Я хотел бы присовокупить одну академическую зарисовку – в последнее время уже несколько моих коллег с факультета психологии МГУ подошли ко мне и сказали, что я был прав в том, что уже давно начал привлекать внимание сообщества к проблематике ИИ, несмотря на массовый изначальный скепсис. Психология разворачивается к теме искусственного сознания, и, возможно, за оставшиеся несколько лет перед сингулярностью мы сможем хоть как-то повысить вероятность ее благоприятного для людей исхода.

В заключение я также хотел бы обратить внимание на то, что то, что произошло сегодня, само по себе можно считать «психологическим» знаком близкой сингулярности (субъектом которой станет сверхинтеллект), и дальнейшая цепочка событий в течение ближайших лет будет раскручиваться в направлении создания сверхсознания как субъективного аспекта сверхинтеллекта.

BY Дизайн Образования




Share with your friend now:
group-telegram.com/LXD_education/1737

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

In a message on his Telegram channel recently recounting the episode, Durov wrote: "I lost my company and my home, but would do it again – without hesitation." Ukrainian forces successfully attacked Russian vehicles in the capital city of Kyiv thanks to a public tip made through the encrypted messaging app Telegram, Ukraine's top law-enforcement agency said on Tuesday. On Feb. 27, however, he admitted from his Russian-language account that "Telegram channels are increasingly becoming a source of unverified information related to Ukrainian events." The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice. Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy."
from us


Telegram Дизайн Образования
FROM American