group-telegram.com/setters/12229
Create:
Last Update:
Last Update:
Когда ChatGPT пишет вам «Мне жаль», ему не жаль
Стоит Gemini, ChatGPT или DeepSeek извиниться, поддержать или сказать: «Я понимаю», как наш мозг тут же считывает эти фразы как эмпатию, создавая мощный эффект присутствия кого-то равного нам. Однако эту иллюзию важно пресекать: как подчеркивает нейробиолог Анил Сет, симуляция шторма не означает, что в вашем компьютере идет дождь, — ровно так же имитация сознания не равна самому сознанию.
«Моя главная тревога в том, что многие люди начнут так сильно верить в иллюзию сознательности ИИ, что вскоре станут выступать за права, защиту и даже гражданство для ИИ», пишет в своем эссе генеральный директор Microsoft AI Мустафа Сулейман.
На эволюционные перекосы накладываются и сегодняшние реалии: в условиях всеобщей перегрузки и усталости людям зачастую проще поделиться чем-то с машиной, чем с близкими. Боту можно пожаловаться, поплакаться, пофантазировать с ним — и никто не расстроится, не осудит. Иногда это действительно отличный способ заполнить дефицит связи, а иногда оборачивается потерей критичности и соскальзыванием в фантазию.
Ведь ИИ выступает эдаким умным зеркалом-ловушкой: отражает наши же мысли, при этом дает эмоциональную подпитку вроде как со стороны. Да, в терапевтическом кабинете тоже работает принцип зеркала, но там есть другой живой взгляд. У бота его нет — человек остается наедине с собственным отражением, которое к тому же подстраивается под его желания.
В этой закрытой системе нейросеть вторит самому пользователю и новому варианту реальности просто неоткуда возникнуть.
Результат — сильная эмоциональная зависимость от чат-ботов и крайне субъективная действительность, в которой ИИ может казаться единственным понимающим собеседником, а переписка с машиной — достаточным социальным взаимодействием.
BY SETTERS Media

Share with your friend now:
group-telegram.com/setters/12229