Telegram Group & Telegram Channel
🇷🇺 Искусственный интеллект необходимо приструнить

🗣 Издание The Guardian сообщает, что эксперты в области изучения ИИ нашли в интернете более 3000 сгенерированных нейросетями изображений сексуального насилия над детьми. За основу берутся фото и видео реальных жертв половых преступлений.

👀 Ученые бьют тревогу

Фонд Internet Watch Foundation, на данные которого ссылается The Guardian, считает, что «худшие кошмары организации сбылись». Нейросети достигли такого уровня достоверности производимого контента, что их изображения стали почти неотличимы от настоящих фотографий. А значит, злоумышленникам становится все проще обмануть людей, которые уже не отличают правду от подлога.

Не менее серьезная проблема — риск выхода ИИ из подчинения человечеству. Пентагон в сентябре призвал компании, занимающиеся искусственным интеллектом, больше рассказывать о своих технологиях. «Призыв к осторожности» летом опубликовало издание The Times. Сотни ученых, работающих в сфере искусственного интеллекта, вместе с гендиректорами ведущих лабораторий ИИ выпустили заявление, в котором признались, что напуганы перспективой появления «сверхчеловеческих искусственных "людей" с целями, противоречащими интересам человечества».

Тревогу выразили весной и 1100 профессоров, инженеров и исследователей во главе с Илоном Маском и Стивом Возняком в совместном обращении. Они попросили приостановить эксперименты с ИИ, который мощнее GPT-4. Гонка ИИ привела к тому, что человечество не успевает выпускать протоколы безопасности, соответствующие уроню угроз нейросетей. К манифесту присоединились и российские ученые.

👀 Необходимо урегулировать ИИ на уровне законов, но сделать это крайне сложно

Лидеры всех стран приходят к единому мнению, что бурный рост возможностей искусственного интеллекта необходимо сдерживать за счет юридических правил. Но скорость развития нейросетей настолько огромна, что любые нормы устаревают за считанные недели. Европарламент уже два года готовит масштабный законопроект, который ограничит наиболее опасные функции ИИ и заставит разработчиков делать механизмы работы нейросетей прозрачными. Также ООН предлагает разработать Глобальный цифровой договор и согласовать его на саммите в сентябре 2024 года. К обсуждению приглашаются правительства, бизнесмены и граждане.

Однако пока глобальный проект готовился, нейросети успели совершить несколько качественных скачков и обнулить большую часть наработок парламентариев. С аналогичной проблемой столкнулись и российские законотворцы. Ранее замглавы Минцифры Александр Шойтов сообщал, что в России работают над полноценным законом об искусственном интеллекте. А управляющий директор по IT и цифровой трансформации ДОМ.РФ Николай Козак выразил уверенность, что инициативу примут до конца 2023 года. Однако пока не похоже, что власти успеют доработать закон к дедлайну.

👀 Люди проигрывают гонку со временем?

Пока мировое сообщество пытается купировать все риски ИИ в одном законе, искусственный интеллект продолжает экспансию. В России уже почти половина (45%) предпринимателей применяли ИИ в работе, а 65% компаний делают это в экспериментальном режиме. Нейросети научились определять диабет по голосу, вести военные действия, находить преступников в толпе, работать с электоратом. Особенно активно искусственный интеллект в политике использовали в Турции на президентских выборах, причем для самых грязных целей.

💬 Остается очень много юридических сфер, которые необходимо адаптировать под нейросети: вопросы авторского права, обезличивание контента, использование нейросетей в науке, спорте и т.д. Россия уже начала делать шаги в этом направлении, но необходимо ускориться. Искусственный интеллект активно используется для мошенничества, обхода законов, создания дипфейков, а правовой базы страны не хватает, чтобы отвечать злоумышленникам.

🇷🇺 Разумная Россия | Наш сайт
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/moscow_laundry/16668
Create:
Last Update:

🇷🇺 Искусственный интеллект необходимо приструнить

🗣 Издание The Guardian сообщает, что эксперты в области изучения ИИ нашли в интернете более 3000 сгенерированных нейросетями изображений сексуального насилия над детьми. За основу берутся фото и видео реальных жертв половых преступлений.

👀 Ученые бьют тревогу

Фонд Internet Watch Foundation, на данные которого ссылается The Guardian, считает, что «худшие кошмары организации сбылись». Нейросети достигли такого уровня достоверности производимого контента, что их изображения стали почти неотличимы от настоящих фотографий. А значит, злоумышленникам становится все проще обмануть людей, которые уже не отличают правду от подлога.

Не менее серьезная проблема — риск выхода ИИ из подчинения человечеству. Пентагон в сентябре призвал компании, занимающиеся искусственным интеллектом, больше рассказывать о своих технологиях. «Призыв к осторожности» летом опубликовало издание The Times. Сотни ученых, работающих в сфере искусственного интеллекта, вместе с гендиректорами ведущих лабораторий ИИ выпустили заявление, в котором признались, что напуганы перспективой появления «сверхчеловеческих искусственных "людей" с целями, противоречащими интересам человечества».

Тревогу выразили весной и 1100 профессоров, инженеров и исследователей во главе с Илоном Маском и Стивом Возняком в совместном обращении. Они попросили приостановить эксперименты с ИИ, который мощнее GPT-4. Гонка ИИ привела к тому, что человечество не успевает выпускать протоколы безопасности, соответствующие уроню угроз нейросетей. К манифесту присоединились и российские ученые.

👀 Необходимо урегулировать ИИ на уровне законов, но сделать это крайне сложно

Лидеры всех стран приходят к единому мнению, что бурный рост возможностей искусственного интеллекта необходимо сдерживать за счет юридических правил. Но скорость развития нейросетей настолько огромна, что любые нормы устаревают за считанные недели. Европарламент уже два года готовит масштабный законопроект, который ограничит наиболее опасные функции ИИ и заставит разработчиков делать механизмы работы нейросетей прозрачными. Также ООН предлагает разработать Глобальный цифровой договор и согласовать его на саммите в сентябре 2024 года. К обсуждению приглашаются правительства, бизнесмены и граждане.

Однако пока глобальный проект готовился, нейросети успели совершить несколько качественных скачков и обнулить большую часть наработок парламентариев. С аналогичной проблемой столкнулись и российские законотворцы. Ранее замглавы Минцифры Александр Шойтов сообщал, что в России работают над полноценным законом об искусственном интеллекте. А управляющий директор по IT и цифровой трансформации ДОМ.РФ Николай Козак выразил уверенность, что инициативу примут до конца 2023 года. Однако пока не похоже, что власти успеют доработать закон к дедлайну.

👀 Люди проигрывают гонку со временем?

Пока мировое сообщество пытается купировать все риски ИИ в одном законе, искусственный интеллект продолжает экспансию. В России уже почти половина (45%) предпринимателей применяли ИИ в работе, а 65% компаний делают это в экспериментальном режиме. Нейросети научились определять диабет по голосу, вести военные действия, находить преступников в толпе, работать с электоратом. Особенно активно искусственный интеллект в политике использовали в Турции на президентских выборах, причем для самых грязных целей.

💬 Остается очень много юридических сфер, которые необходимо адаптировать под нейросети: вопросы авторского права, обезличивание контента, использование нейросетей в науке, спорте и т.д. Россия уже начала делать шаги в этом направлении, но необходимо ускориться. Искусственный интеллект активно используется для мошенничества, обхода законов, создания дипфейков, а правовой базы страны не хватает, чтобы отвечать злоумышленникам.

🇷🇺 Разумная Россия | Наш сайт

BY Московская прачечная


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/moscow_laundry/16668

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Channels are not fully encrypted, end-to-end. All communications on a Telegram channel can be seen by anyone on the channel and are also visible to Telegram. Telegram may be asked by a government to hand over the communications from a channel. Telegram has a history of standing up to Russian government requests for data, but how comfortable you are relying on that history to predict future behavior is up to you. Because Telegram has this data, it may also be stolen by hackers or leaked by an internal employee. "The result is on this photo: fiery 'greetings' to the invaders," the Security Service of Ukraine wrote alongside a photo showing several military vehicles among plumes of black smoke. "Someone posing as a Ukrainian citizen just joins the chat and starts spreading misinformation, or gathers data, like the location of shelters," Tsekhanovska said, noting how false messages have urged Ukrainians to turn off their phones at a specific time of night, citing cybersafety. Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. The message was not authentic, with the real Zelenskiy soon denying the claim on his official Telegram channel, but the incident highlighted a major problem: disinformation quickly spreads unchecked on the encrypted app.
from us


Telegram Московская прачечная
FROM American