group-telegram.com/e628b7b7/1606
Last Update:
В MIT Technology Review вышла любопытная статья – о том как журналистка попыталась воспользоваться ChatGPT для создания индивидуального плана подготовки к участию в марафоне и что из этого вышло. Если вкратце: нейросеть умеет давать неплохие советы, но сильно лажает в конкретных деталях, которые могут оказаться решающими. Например, ChatGPT слишком сильно снизил спортивную нагрузку в одном из первых запросов, а в другом запросе наоборот посоветовал пробежать 19 миль накануне марафона (что довольно плохая идея и прямой путь в госпиталь).
Журналистка опросила других фитнес-инструкторов, которые экспериментировали с ботом при составлении программ тренировок. Интересно, что из всех опрошенных никто не воспринимал ChatGPT всерьез: в основном с ним баловались ради челленджей в соцсетях, новых подписчиков и чистого любопытства – а потом возвращались к уже давно составленным практикам и планам. Экспертам в своей области оказались особо не нужны советы от машины в том, в чем они хорошо разбираются.
Но это эксперты, а что насчет новичков, которые хотят быстро войти в тему? На них, как обычно, паразитируют. Некий software engineer решил сделать бизнес и составляет с помощью ChatGPT фитнес-планы по запросу, толкая их по $15 штука. При этом он не скрывает, что пользуется нейросетью и признается, что люди платят ему за “удобство” – под этим, видимо, надо понимать обернутые в красивую презентацию данные, для получения которых нужно три раза кликнуть мышкой и один раз ввести код из смс при регистрации в OpenAI (прежде чем смеяться вспомните, сколько раз вы платили где-либо за аналогичное “удобство” сами).
Этот последний случай самый интересный из всех, потому что он показывает критическую роль человека-посредника при взаимодействии с машиной и вообще с любым безликим агентом – роль не инфраструктурную, а эмоциональную; своеобразный знак качества и признак того, что продукт подходит для людей и не нанесет вреда. Переданная через человека информация вызывает больше доверия даже в том случае, если мы знаем, что источником информации служит алгоритм, источником радости или здоровья – химическое соединение, а источником смысла жизни – божественное откровение.
Эту тему неплохо исследует игра Eliza от Zachtronics. В ней мы примеряем на себя роль девушки-медиатора, находящейся между пациентом и AI-сервисом-психотерапевтом под одноименным названием (да, это отсылка к той самой ELIZA, которую в 60-е годы создал Джозеф Вайзенбаум и которая очень хорошо себя показала на тесте Тьюринга). Мы не живой доктор, а посредник, который нужен для создания комфортной и дружелюбной атмосферы и чьими устами будет говорить машина; через нас она беседует с пациентом, через нас же назначает анализы, задает наводящие вопросы и прописывает лекарства. Мы не можем ничего добавлять от себя, высказывать собственное мнение и вообще как-либо отклоняться от скрипта. В особо драматичные моменты игры из этой трехчастной динамики рождаются ситуации отчуждения между двумя людьми, находящимися на разных концах input’a и output’а в огромном корпоративном AI – один не имеет возможности достучаться до другого и не может воспринимать его как нормального человека, а второй не имеет возможности ни ответить на контакт, ни выказать сострадание, ни помочь как-либо иначе.
BY e628b7b7
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/e628b7b7/1606