Telegram Group & Telegram Channel
А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.



group-telegram.com/roguelike_theory/690
Create:
Last Update:

А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.

BY roguelike theory




Share with your friend now:
group-telegram.com/roguelike_theory/690

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

'Wild West' Such instructions could actually endanger people — citizens receive air strike warnings via smartphone alerts. Under the Sebi Act, the regulator has the power to carry out search and seizure of books, registers, documents including electronics and digital devices from any person associated with the securities market. After fleeing Russia, the brothers founded Telegram as a way to communicate outside the Kremlin's orbit. They now run it from Dubai, and Pavel Durov says it has more than 500 million monthly active users. To that end, when files are actively downloading, a new icon now appears in the Search bar that users can tap to view and manage downloads, pause and resume all downloads or just individual items, and select one to increase its priority or view it in a chat.
from es


Telegram roguelike theory
FROM American