Telegram Group & Telegram Channel
А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.



group-telegram.com/roguelike_theory/690
Create:
Last Update:

А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.

BY roguelike theory




Share with your friend now:
group-telegram.com/roguelike_theory/690

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

And while money initially moved into stocks in the morning, capital moved out of safe-haven assets. The price of the 10-year Treasury note fell Friday, sending its yield up to 2% from a March closing low of 1.73%. "There is a significant risk of insider threat or hacking of Telegram systems that could expose all of these chats to the Russian government," said Eva Galperin with the Electronic Frontier Foundation, which has called for Telegram to improve its privacy practices. Crude oil prices edged higher after tumbling on Thursday, when U.S. West Texas intermediate slid back below $110 per barrel after topping as much as $130 a barrel in recent sessions. Still, gas prices at the pump rose to fresh highs. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." Ukrainian President Volodymyr Zelensky said in a video message on Tuesday that Ukrainian forces "destroy the invaders wherever we can."
from ye


Telegram roguelike theory
FROM American