Telegram Group & Telegram Channel
ИИ правила игры

Часть 1.

👨‍💻 В Москве прошел 30-ый «ТБ-Форум», посвящённый актуальным вопросам цифровой трансформации, безопасности, ИТ и кибербезопасности.

➡️ В рамках события эксперты обсудили задачи и проекты внедрения цифровых технологий, технологий безопасности и защиты информации в целях построения прозрачного и предметного сотрудничества с крупными технологическими компаниями.

💬Заказчики и поставщики в сфере безопасности провели открытый диалог, чтобы выработать эффективные стратегии реализации инвестиционных проектов. Основными стали вопросы цифровизации, защиты данных, а также экономические аспекты и лучшие практики, позволяющие предприятиям получить максимальную отдачу от вложений

🔎Директор ИСП РАН, академик РАН Арутюн Аветисян выступил ведущим и спикером пленарного заседания конференции «Искусственный интеллект: вызовы и возможности», где был представлен опыт использования AI/ML в различных отраслях, вопросы доверия и информационной безопасности.

🎙 Арутюн Аветисян, директор ИСП РАН, академик РАН.

➡️ «Искусственный интеллект внедряется во все сферы деятельности, а также в разы повышает продуктивность труда. И связано это в первую очередь с широтой внедрения и дальнейшим внедрением с снижением стоимости. Данные появляются все больше и больше, и суперкомпьютерная мощность становится все дешевле и доступнее. Даже в школах начинают преподавать искусственный интеллект.

💡 Достаточно большое количество людей доверяет искусственному интеллекту, и при этом в нашем стратегическом документе в апреле прошлого года было точно обозначено, что не обеспечив доверие к соответствующим технологиям в критических областях, ее точно нельзя внедрять.

✔️Уже точно определено, что доверие состоит по сути из двух частей: это самобезопасность, если говорить в стэковском смысле и социо-гуманитарный аспект, потому что технологии искусственного интеллекта влияют на людей, и это не только большие модели.

В России было организовано движение по этике искусственного интеллекта, оно продолжается: многие компании, в том числе ИСП РАН поддержали декларацию.

[Декларация этических принципов создания и использования систем ИИ была утверждена Учёным советом НИУ ВШЭ 26 июня 2024 года. Документ охватывает ряд ключевых принципов, направленных на этичное и ответственное использование ИИ].

✔️Без регуляторики мы обречены остаться один на один с искусственным интеллектом и ничего с этим не сделаем.

🔵Бездумное внедрение во все сферы с этим ужасающим ростом дешевизны и качества; роста качества и падения стоимости приводит к тому, что мы везде начинаем внедрять ИИ. Регуляторики никакой нет. Учитывая все отрицательные последствия, люди начали бить тревогу, но, к сожалению, не были услышаны. Наоборот, скорее разработки наращивались. Однако на уровне государств с 2023 года пошла уже жесткая риторика, что необходимо вводить нормы регулирования ИИ, иначе внедрения не будет.

И в Европе, и в США, и в Китае, и у нас это уже обсуждается (будет принято законодательно), что любой сгенерированный контент должен обладать водяными знаками, чтобы мы как могли знать, смотрим мы сгенерированный контент или нет. Технологически это сделать невозможно, можно только заставить производителя сгенерированного контента включить водяные знаки.

➡️Считается, что в ближайшее время появятся технологические возможности, контролировать то, что есть на рынке ИИ.

🏷Регуляторика должна появиться как следствие достижения науки, а не просто декларативно.

❗️Сейчас в мире есть десятки открытых проектов, которые направлены на эту область. В рамках нашего центра, который мы создали, мы уже создали ряд технологий. В прошлом году был создан консорциум — это Институт системного программирования РАН, АНО Национальный технологический центр цифровой криптографии (НТЦ ЦК). Сейчас к этому консорциуму подключился уже ряд компаний».

#НОП
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝4036👍35🔥31😁31🤔27👏26💯25



group-telegram.com/szhenov/14553
Create:
Last Update:

ИИ правила игры

Часть 1.

👨‍💻 В Москве прошел 30-ый «ТБ-Форум», посвящённый актуальным вопросам цифровой трансформации, безопасности, ИТ и кибербезопасности.

➡️ В рамках события эксперты обсудили задачи и проекты внедрения цифровых технологий, технологий безопасности и защиты информации в целях построения прозрачного и предметного сотрудничества с крупными технологическими компаниями.

💬Заказчики и поставщики в сфере безопасности провели открытый диалог, чтобы выработать эффективные стратегии реализации инвестиционных проектов. Основными стали вопросы цифровизации, защиты данных, а также экономические аспекты и лучшие практики, позволяющие предприятиям получить максимальную отдачу от вложений

🔎Директор ИСП РАН, академик РАН Арутюн Аветисян выступил ведущим и спикером пленарного заседания конференции «Искусственный интеллект: вызовы и возможности», где был представлен опыт использования AI/ML в различных отраслях, вопросы доверия и информационной безопасности.

🎙 Арутюн Аветисян, директор ИСП РАН, академик РАН.

➡️ «Искусственный интеллект внедряется во все сферы деятельности, а также в разы повышает продуктивность труда. И связано это в первую очередь с широтой внедрения и дальнейшим внедрением с снижением стоимости. Данные появляются все больше и больше, и суперкомпьютерная мощность становится все дешевле и доступнее. Даже в школах начинают преподавать искусственный интеллект.

💡 Достаточно большое количество людей доверяет искусственному интеллекту, и при этом в нашем стратегическом документе в апреле прошлого года было точно обозначено, что не обеспечив доверие к соответствующим технологиям в критических областях, ее точно нельзя внедрять.

✔️Уже точно определено, что доверие состоит по сути из двух частей: это самобезопасность, если говорить в стэковском смысле и социо-гуманитарный аспект, потому что технологии искусственного интеллекта влияют на людей, и это не только большие модели.

В России было организовано движение по этике искусственного интеллекта, оно продолжается: многие компании, в том числе ИСП РАН поддержали декларацию.

[Декларация этических принципов создания и использования систем ИИ была утверждена Учёным советом НИУ ВШЭ 26 июня 2024 года. Документ охватывает ряд ключевых принципов, направленных на этичное и ответственное использование ИИ].

✔️Без регуляторики мы обречены остаться один на один с искусственным интеллектом и ничего с этим не сделаем.

🔵Бездумное внедрение во все сферы с этим ужасающим ростом дешевизны и качества; роста качества и падения стоимости приводит к тому, что мы везде начинаем внедрять ИИ. Регуляторики никакой нет. Учитывая все отрицательные последствия, люди начали бить тревогу, но, к сожалению, не были услышаны. Наоборот, скорее разработки наращивались. Однако на уровне государств с 2023 года пошла уже жесткая риторика, что необходимо вводить нормы регулирования ИИ, иначе внедрения не будет.

И в Европе, и в США, и в Китае, и у нас это уже обсуждается (будет принято законодательно), что любой сгенерированный контент должен обладать водяными знаками, чтобы мы как могли знать, смотрим мы сгенерированный контент или нет. Технологически это сделать невозможно, можно только заставить производителя сгенерированного контента включить водяные знаки.

➡️Считается, что в ближайшее время появятся технологические возможности, контролировать то, что есть на рынке ИИ.

🏷Регуляторика должна появиться как следствие достижения науки, а не просто декларативно.

❗️Сейчас в мире есть десятки открытых проектов, которые направлены на эту область. В рамках нашего центра, который мы создали, мы уже создали ряд технологий. В прошлом году был создан консорциум — это Институт системного программирования РАН, АНО Национальный технологический центр цифровой криптографии (НТЦ ЦК). Сейчас к этому консорциуму подключился уже ряд компаний».

#НОП

BY НОП. Научно-образовательная политика








Share with your friend now:
group-telegram.com/szhenov/14553

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours. "The argument from Telegram is, 'You should trust us because we tell you that we're trustworthy,'" Maréchal said. "It's really in the eye of the beholder whether that's something you want to buy into." Friday’s performance was part of a larger shift. For the week, the Dow, S&P 500 and Nasdaq fell 2%, 2.9%, and 3.5%, respectively. Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. "The result is on this photo: fiery 'greetings' to the invaders," the Security Service of Ukraine wrote alongside a photo showing several military vehicles among plumes of black smoke.
from us


Telegram НОП. Научно-образовательная политика
FROM American