Warning: file_put_contents(aCache/aDaily/post/zvezda_analytics/-21502-21503-21502-): Failed to open stream: No space left on device in /var/www/group-telegram/post.php on line 50
Звезда АНАЛИТИКА | Telegram Webview: zvezda_analytics/21502 -
Telegram Group & Telegram Channel
ИИ выходит в эфир: как виртуальная ведущая обманула Британию, а искусственный интеллект — сам себя

Британский телеканал Channel 4 устроил, пожалуй, самый громкий телевизионный фокус года: выпустил документальный фильм «Отнимет ли ИИ мою работу?», где зрителей целый час приветствовала обаятельная ведущая Айша Габан. Она уверенно рассуждала о будущем профессий, брала интервью и шутила — пока в финале не сообщила ошарашенной аудитории: «Меня не существует».

Айша оказалась полностью созданной искусственным интеллектом. Её голос, мимика, жесты — всё сгенерировано нейросетями. Авторы признались: хотели проверить, насколько легко зрителя можно обмануть. Получилось — даже слишком. Руководство Channel 4 уверяет, что не собирается заменять журналистов ИИ, но этот эксперимент стал тревожным сигналом: телевидение, похоже, вступило в эпоху, когда подлинность уже не очевидна.

Пока Айша завоёвывала эфир, OpenAI представила браузер ChatGPT Atlas — инструмент, который может бронировать авиабилеты, редактировать документы и объяснять информацию прямо на веб-странице. Всё бы выглядело как шаг к цифровому комфорту, если бы не одно «но».

По данным BBC и Европейского вещательного союза, почти половина ответов ИИ на новостные темы искажают факты. 22 медиакомпании из 18 стран проанализировали более 3 тысяч ответов — и пришли к выводу: искусственный интеллект часто «украшает» реальность.

Учёные из Массачусетского технологического института, Сингапура и Иллинойса пошли дальше: они доказали, что дообучение нейросетей на вирусных постах из соцсетей делает их… глупее и агрессивнее. Чем больше «лайков» у контента, тем быстрее модель теряет логику, цепляется за эмоции и начинает демонстрировать «тёмные черты» — нарциссизм и психопатию.

Похоже, машины действительно становятся похожи на людей — только, увы, на их худшую версию. И вопрос фильма Channel 4 «Отнимет ли ИИ мою работу?» превращается в другой: а не отнимет ли он у нас рассудок?

⭐️Звезда АНАЛИТИКА в ТГ

📬 Звезда АНАЛИТИКА в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯13🤩3💯31👎1



group-telegram.com/zvezda_analytics/21502
Create:
Last Update:

ИИ выходит в эфир: как виртуальная ведущая обманула Британию, а искусственный интеллект — сам себя

Британский телеканал Channel 4 устроил, пожалуй, самый громкий телевизионный фокус года: выпустил документальный фильм «Отнимет ли ИИ мою работу?», где зрителей целый час приветствовала обаятельная ведущая Айша Габан. Она уверенно рассуждала о будущем профессий, брала интервью и шутила — пока в финале не сообщила ошарашенной аудитории: «Меня не существует».

Айша оказалась полностью созданной искусственным интеллектом. Её голос, мимика, жесты — всё сгенерировано нейросетями. Авторы признались: хотели проверить, насколько легко зрителя можно обмануть. Получилось — даже слишком. Руководство Channel 4 уверяет, что не собирается заменять журналистов ИИ, но этот эксперимент стал тревожным сигналом: телевидение, похоже, вступило в эпоху, когда подлинность уже не очевидна.

Пока Айша завоёвывала эфир, OpenAI представила браузер ChatGPT Atlas — инструмент, который может бронировать авиабилеты, редактировать документы и объяснять информацию прямо на веб-странице. Всё бы выглядело как шаг к цифровому комфорту, если бы не одно «но».

По данным BBC и Европейского вещательного союза, почти половина ответов ИИ на новостные темы искажают факты. 22 медиакомпании из 18 стран проанализировали более 3 тысяч ответов — и пришли к выводу: искусственный интеллект часто «украшает» реальность.

Учёные из Массачусетского технологического института, Сингапура и Иллинойса пошли дальше: они доказали, что дообучение нейросетей на вирусных постах из соцсетей делает их… глупее и агрессивнее. Чем больше «лайков» у контента, тем быстрее модель теряет логику, цепляется за эмоции и начинает демонстрировать «тёмные черты» — нарциссизм и психопатию.

Похоже, машины действительно становятся похожи на людей — только, увы, на их худшую версию. И вопрос фильма Channel 4 «Отнимет ли ИИ мою работу?» превращается в другой: а не отнимет ли он у нас рассудок?

⭐️Звезда АНАЛИТИКА в ТГ

📬 Звезда АНАЛИТИКА в MAX

BY Звезда АНАЛИТИКА


Share with your friend now:
group-telegram.com/zvezda_analytics/21502

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Like the bombing of the maternity ward in Mariupol," he said, "Even before it hits the news, you see the videos on the Telegram channels." But the Ukraine Crisis Media Center's Tsekhanovska points out that communications are often down in zones most affected by the war, making this sort of cross-referencing a luxury many cannot afford. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. In 2018, Russia banned Telegram although it reversed the prohibition two years later. The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips.
from br


Telegram Звезда АНАЛИТИКА
FROM American