Warning: file_put_contents(aCache/aDaily/post/zvezda_analytics/-21502-21503-21502-): Failed to open stream: No space left on device in /var/www/group-telegram/post.php on line 50
Звезда АНАЛИТИКА | Telegram Webview: zvezda_analytics/21502 -
Telegram Group & Telegram Channel
ИИ выходит в эфир: как виртуальная ведущая обманула Британию, а искусственный интеллект — сам себя

Британский телеканал Channel 4 устроил, пожалуй, самый громкий телевизионный фокус года: выпустил документальный фильм «Отнимет ли ИИ мою работу?», где зрителей целый час приветствовала обаятельная ведущая Айша Габан. Она уверенно рассуждала о будущем профессий, брала интервью и шутила — пока в финале не сообщила ошарашенной аудитории: «Меня не существует».

Айша оказалась полностью созданной искусственным интеллектом. Её голос, мимика, жесты — всё сгенерировано нейросетями. Авторы признались: хотели проверить, насколько легко зрителя можно обмануть. Получилось — даже слишком. Руководство Channel 4 уверяет, что не собирается заменять журналистов ИИ, но этот эксперимент стал тревожным сигналом: телевидение, похоже, вступило в эпоху, когда подлинность уже не очевидна.

Пока Айша завоёвывала эфир, OpenAI представила браузер ChatGPT Atlas — инструмент, который может бронировать авиабилеты, редактировать документы и объяснять информацию прямо на веб-странице. Всё бы выглядело как шаг к цифровому комфорту, если бы не одно «но».

По данным BBC и Европейского вещательного союза, почти половина ответов ИИ на новостные темы искажают факты. 22 медиакомпании из 18 стран проанализировали более 3 тысяч ответов — и пришли к выводу: искусственный интеллект часто «украшает» реальность.

Учёные из Массачусетского технологического института, Сингапура и Иллинойса пошли дальше: они доказали, что дообучение нейросетей на вирусных постах из соцсетей делает их… глупее и агрессивнее. Чем больше «лайков» у контента, тем быстрее модель теряет логику, цепляется за эмоции и начинает демонстрировать «тёмные черты» — нарциссизм и психопатию.

Похоже, машины действительно становятся похожи на людей — только, увы, на их худшую версию. И вопрос фильма Channel 4 «Отнимет ли ИИ мою работу?» превращается в другой: а не отнимет ли он у нас рассудок?

⭐️Звезда АНАЛИТИКА в ТГ

📬 Звезда АНАЛИТИКА в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯13🤩3💯31👎1



group-telegram.com/zvezda_analytics/21502
Create:
Last Update:

ИИ выходит в эфир: как виртуальная ведущая обманула Британию, а искусственный интеллект — сам себя

Британский телеканал Channel 4 устроил, пожалуй, самый громкий телевизионный фокус года: выпустил документальный фильм «Отнимет ли ИИ мою работу?», где зрителей целый час приветствовала обаятельная ведущая Айша Габан. Она уверенно рассуждала о будущем профессий, брала интервью и шутила — пока в финале не сообщила ошарашенной аудитории: «Меня не существует».

Айша оказалась полностью созданной искусственным интеллектом. Её голос, мимика, жесты — всё сгенерировано нейросетями. Авторы признались: хотели проверить, насколько легко зрителя можно обмануть. Получилось — даже слишком. Руководство Channel 4 уверяет, что не собирается заменять журналистов ИИ, но этот эксперимент стал тревожным сигналом: телевидение, похоже, вступило в эпоху, когда подлинность уже не очевидна.

Пока Айша завоёвывала эфир, OpenAI представила браузер ChatGPT Atlas — инструмент, который может бронировать авиабилеты, редактировать документы и объяснять информацию прямо на веб-странице. Всё бы выглядело как шаг к цифровому комфорту, если бы не одно «но».

По данным BBC и Европейского вещательного союза, почти половина ответов ИИ на новостные темы искажают факты. 22 медиакомпании из 18 стран проанализировали более 3 тысяч ответов — и пришли к выводу: искусственный интеллект часто «украшает» реальность.

Учёные из Массачусетского технологического института, Сингапура и Иллинойса пошли дальше: они доказали, что дообучение нейросетей на вирусных постах из соцсетей делает их… глупее и агрессивнее. Чем больше «лайков» у контента, тем быстрее модель теряет логику, цепляется за эмоции и начинает демонстрировать «тёмные черты» — нарциссизм и психопатию.

Похоже, машины действительно становятся похожи на людей — только, увы, на их худшую версию. И вопрос фильма Channel 4 «Отнимет ли ИИ мою работу?» превращается в другой: а не отнимет ли он у нас рассудок?

⭐️Звезда АНАЛИТИКА в ТГ

📬 Звезда АНАЛИТИКА в MAX

BY Звезда АНАЛИТИКА


Share with your friend now:
group-telegram.com/zvezda_analytics/21502

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. Telegram Messenger Blocks Navalny Bot During Russian Election Markets continued to grapple with the economic and corporate earnings implications relating to the Russia-Ukraine conflict. “We have a ton of uncertainty right now,” said Stephanie Link, chief investment strategist and portfolio manager at Hightower Advisors. “We’re dealing with a war, we’re dealing with inflation. We don’t know what it means to earnings.” On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations. But Kliuchnikov, the Ukranian now in France, said he will use Signal or WhatsApp for sensitive conversations, but questions around privacy on Telegram do not give him pause when it comes to sharing information about the war.
from ua


Telegram Звезда АНАЛИТИКА
FROM American