Telegram Group & Telegram Channel
В MIT Technology Review вышла любопытная статья – о том как журналистка попыталась воспользоваться ChatGPT для создания индивидуального плана подготовки к участию в марафоне и что из этого вышло. Если вкратце: нейросеть умеет давать неплохие советы, но сильно лажает в конкретных деталях, которые могут оказаться решающими. Например, ChatGPT слишком сильно снизил спортивную нагрузку в одном из первых запросов, а в другом запросе наоборот посоветовал пробежать 19 миль накануне марафона (что довольно плохая идея и прямой путь в госпиталь).

Журналистка опросила других фитнес-инструкторов, которые экспериментировали с ботом при составлении программ тренировок. Интересно, что из всех опрошенных никто не воспринимал ChatGPT всерьез: в основном с ним баловались ради челленджей в соцсетях, новых подписчиков и чистого любопытства – а потом возвращались к уже давно составленным практикам и планам. Экспертам в своей области оказались особо не нужны советы от машины в том, в чем они хорошо разбираются.

Но это эксперты, а что насчет новичков, которые хотят быстро войти в тему? На них, как обычно, паразитируют. Некий software engineer решил сделать бизнес и составляет с помощью ChatGPT фитнес-планы по запросу, толкая их по $15 штука. При этом он не скрывает, что пользуется нейросетью и признается, что люди платят ему за “удобство” – под этим, видимо, надо понимать обернутые в красивую презентацию данные, для получения которых нужно три раза кликнуть мышкой и один раз ввести код из смс при регистрации в OpenAI (прежде чем смеяться вспомните, сколько раз вы платили где-либо за аналогичное “удобство” сами).

Этот последний случай самый интересный из всех, потому что он показывает критическую роль человека-посредника при взаимодействии с машиной и вообще с любым безликим агентом – роль не инфраструктурную, а эмоциональную; своеобразный знак качества и признак того, что продукт подходит для людей и не нанесет вреда. Переданная через человека информация вызывает больше доверия даже в том случае, если мы знаем, что источником информации служит алгоритм, источником радости или здоровья – химическое соединение, а источником смысла жизни – божественное откровение.

Эту тему неплохо исследует игра Eliza от Zachtronics. В ней мы примеряем на себя роль девушки-медиатора, находящейся между пациентом и AI-сервисом-психотерапевтом под одноименным названием (да, это отсылка к той самой ELIZA, которую в 60-е годы создал Джозеф Вайзенбаум и которая очень хорошо себя показала на тесте Тьюринга). Мы не живой доктор, а посредник, который нужен для создания комфортной и дружелюбной атмосферы и чьими устами будет говорить машина; через нас она беседует с пациентом, через нас же назначает анализы, задает наводящие вопросы и прописывает лекарства. Мы не можем ничего добавлять от себя, высказывать собственное мнение и вообще как-либо отклоняться от скрипта. В особо драматичные моменты игры из этой трехчастной динамики рождаются ситуации отчуждения между двумя людьми, находящимися на разных концах input’a и output’а в огромном корпоративном AI – один не имеет возможности достучаться до другого и не может воспринимать его как нормального человека, а второй не имеет возможности ни ответить на контакт, ни выказать сострадание, ни помочь как-либо иначе.
💔4🤯1



group-telegram.com/e628b7b7/1606
Create:
Last Update:

В MIT Technology Review вышла любопытная статья – о том как журналистка попыталась воспользоваться ChatGPT для создания индивидуального плана подготовки к участию в марафоне и что из этого вышло. Если вкратце: нейросеть умеет давать неплохие советы, но сильно лажает в конкретных деталях, которые могут оказаться решающими. Например, ChatGPT слишком сильно снизил спортивную нагрузку в одном из первых запросов, а в другом запросе наоборот посоветовал пробежать 19 миль накануне марафона (что довольно плохая идея и прямой путь в госпиталь).

Журналистка опросила других фитнес-инструкторов, которые экспериментировали с ботом при составлении программ тренировок. Интересно, что из всех опрошенных никто не воспринимал ChatGPT всерьез: в основном с ним баловались ради челленджей в соцсетях, новых подписчиков и чистого любопытства – а потом возвращались к уже давно составленным практикам и планам. Экспертам в своей области оказались особо не нужны советы от машины в том, в чем они хорошо разбираются.

Но это эксперты, а что насчет новичков, которые хотят быстро войти в тему? На них, как обычно, паразитируют. Некий software engineer решил сделать бизнес и составляет с помощью ChatGPT фитнес-планы по запросу, толкая их по $15 штука. При этом он не скрывает, что пользуется нейросетью и признается, что люди платят ему за “удобство” – под этим, видимо, надо понимать обернутые в красивую презентацию данные, для получения которых нужно три раза кликнуть мышкой и один раз ввести код из смс при регистрации в OpenAI (прежде чем смеяться вспомните, сколько раз вы платили где-либо за аналогичное “удобство” сами).

Этот последний случай самый интересный из всех, потому что он показывает критическую роль человека-посредника при взаимодействии с машиной и вообще с любым безликим агентом – роль не инфраструктурную, а эмоциональную; своеобразный знак качества и признак того, что продукт подходит для людей и не нанесет вреда. Переданная через человека информация вызывает больше доверия даже в том случае, если мы знаем, что источником информации служит алгоритм, источником радости или здоровья – химическое соединение, а источником смысла жизни – божественное откровение.

Эту тему неплохо исследует игра Eliza от Zachtronics. В ней мы примеряем на себя роль девушки-медиатора, находящейся между пациентом и AI-сервисом-психотерапевтом под одноименным названием (да, это отсылка к той самой ELIZA, которую в 60-е годы создал Джозеф Вайзенбаум и которая очень хорошо себя показала на тесте Тьюринга). Мы не живой доктор, а посредник, который нужен для создания комфортной и дружелюбной атмосферы и чьими устами будет говорить машина; через нас она беседует с пациентом, через нас же назначает анализы, задает наводящие вопросы и прописывает лекарства. Мы не можем ничего добавлять от себя, высказывать собственное мнение и вообще как-либо отклоняться от скрипта. В особо драматичные моменты игры из этой трехчастной динамики рождаются ситуации отчуждения между двумя людьми, находящимися на разных концах input’a и output’а в огромном корпоративном AI – один не имеет возможности достучаться до другого и не может воспринимать его как нормального человека, а второй не имеет возможности ни ответить на контакт, ни выказать сострадание, ни помочь как-либо иначе.

BY e628b7b7


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/e628b7b7/1606

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The message was not authentic, with the real Zelenskiy soon denying the claim on his official Telegram channel, but the incident highlighted a major problem: disinformation quickly spreads unchecked on the encrypted app. These administrators had built substantial positions in these scrips prior to the circulation of recommendations and offloaded their positions subsequent to rise in price of these scrips, making significant profits at the expense of unsuspecting investors, Sebi noted. "The result is on this photo: fiery 'greetings' to the invaders," the Security Service of Ukraine wrote alongside a photo showing several military vehicles among plumes of black smoke. Under the Sebi Act, the regulator has the power to carry out search and seizure of books, registers, documents including electronics and digital devices from any person associated with the securities market. 'Wild West'
from us


Telegram e628b7b7
FROM American