Telegram Group & Telegram Channel
А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.



group-telegram.com/roguelike_theory/690
Create:
Last Update:

А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.

BY roguelike theory




Share with your friend now:
group-telegram.com/roguelike_theory/690

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future. At the start of 2018, the company attempted to launch an Initial Coin Offering (ICO) which would enable it to enable payments (and earn the cash that comes from doing so). The initial signals were promising, especially given Telegram’s user base is already fairly crypto-savvy. It raised an initial tranche of cash – worth more than a billion dollars – to help develop the coin before opening sales to the public. Unfortunately, third-party sales of coins bought in those initial fundraising rounds raised the ire of the SEC, which brought the hammer down on the whole operation. In 2020, officials ordered Telegram to pay a fine of $18.5 million and hand back much of the cash that it had raised. "There are a lot of things that Telegram could have been doing this whole time. And they know exactly what they are and they've chosen not to do them. That's why I don't trust them," she said. The next bit isn’t clear, but Durov reportedly claimed that his resignation, dated March 21st, was an April Fools’ prank. TechCrunch implies that it was a matter of principle, but it’s hard to be clear on the wheres, whos and whys. Similarly, on April 17th, the Moscow Times quoted Durov as saying that he quit the company after being pressured to reveal account details about Ukrainians protesting the then-president Viktor Yanukovych. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government.
from tr


Telegram roguelike theory
FROM American