Telegram Group & Telegram Channel
ИИ правила игры

Часть 1.

👨‍💻 В Москве прошел 30-ый «ТБ-Форум», посвящённый актуальным вопросам цифровой трансформации, безопасности, ИТ и кибербезопасности.

➡️ В рамках события эксперты обсудили задачи и проекты внедрения цифровых технологий, технологий безопасности и защиты информации в целях построения прозрачного и предметного сотрудничества с крупными технологическими компаниями.

💬Заказчики и поставщики в сфере безопасности провели открытый диалог, чтобы выработать эффективные стратегии реализации инвестиционных проектов. Основными стали вопросы цифровизации, защиты данных, а также экономические аспекты и лучшие практики, позволяющие предприятиям получить максимальную отдачу от вложений

🔎Директор ИСП РАН, академик РАН Арутюн Аветисян выступил ведущим и спикером пленарного заседания конференции «Искусственный интеллект: вызовы и возможности», где был представлен опыт использования AI/ML в различных отраслях, вопросы доверия и информационной безопасности.

🎙 Арутюн Аветисян, директор ИСП РАН, академик РАН.

➡️ «Искусственный интеллект внедряется во все сферы деятельности, а также в разы повышает продуктивность труда. И связано это в первую очередь с широтой внедрения и дальнейшим внедрением с снижением стоимости. Данные появляются все больше и больше, и суперкомпьютерная мощность становится все дешевле и доступнее. Даже в школах начинают преподавать искусственный интеллект.

💡 Достаточно большое количество людей доверяет искусственному интеллекту, и при этом в нашем стратегическом документе в апреле прошлого года было точно обозначено, что не обеспечив доверие к соответствующим технологиям в критических областях, ее точно нельзя внедрять.

✔️Уже точно определено, что доверие состоит по сути из двух частей: это самобезопасность, если говорить в стэковском смысле и социо-гуманитарный аспект, потому что технологии искусственного интеллекта влияют на людей, и это не только большие модели.

В России было организовано движение по этике искусственного интеллекта, оно продолжается: многие компании, в том числе ИСП РАН поддержали декларацию.

[Декларация этических принципов создания и использования систем ИИ была утверждена Учёным советом НИУ ВШЭ 26 июня 2024 года. Документ охватывает ряд ключевых принципов, направленных на этичное и ответственное использование ИИ].

✔️Без регуляторики мы обречены остаться один на один с искусственным интеллектом и ничего с этим не сделаем.

🔵Бездумное внедрение во все сферы с этим ужасающим ростом дешевизны и качества; роста качества и падения стоимости приводит к тому, что мы везде начинаем внедрять ИИ. Регуляторики никакой нет. Учитывая все отрицательные последствия, люди начали бить тревогу, но, к сожалению, не были услышаны. Наоборот, скорее разработки наращивались. Однако на уровне государств с 2023 года пошла уже жесткая риторика, что необходимо вводить нормы регулирования ИИ, иначе внедрения не будет.

И в Европе, и в США, и в Китае, и у нас это уже обсуждается (будет принято законодательно), что любой сгенерированный контент должен обладать водяными знаками, чтобы мы как могли знать, смотрим мы сгенерированный контент или нет. Технологически это сделать невозможно, можно только заставить производителя сгенерированного контента включить водяные знаки.

➡️Считается, что в ближайшее время появятся технологические возможности, контролировать то, что есть на рынке ИИ.

🏷Регуляторика должна появиться как следствие достижения науки, а не просто декларативно.

❗️Сейчас в мире есть десятки открытых проектов, которые направлены на эту область. В рамках нашего центра, который мы создали, мы уже создали ряд технологий. В прошлом году был создан консорциум — это Институт системного программирования РАН, АНО Национальный технологический центр цифровой криптографии (НТЦ ЦК). Сейчас к этому консорциуму подключился уже ряд компаний».

#НОП
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝4036👍35🔥31😁31🤔27👏26💯25



group-telegram.com/szhenov/14553
Create:
Last Update:

ИИ правила игры

Часть 1.

👨‍💻 В Москве прошел 30-ый «ТБ-Форум», посвящённый актуальным вопросам цифровой трансформации, безопасности, ИТ и кибербезопасности.

➡️ В рамках события эксперты обсудили задачи и проекты внедрения цифровых технологий, технологий безопасности и защиты информации в целях построения прозрачного и предметного сотрудничества с крупными технологическими компаниями.

💬Заказчики и поставщики в сфере безопасности провели открытый диалог, чтобы выработать эффективные стратегии реализации инвестиционных проектов. Основными стали вопросы цифровизации, защиты данных, а также экономические аспекты и лучшие практики, позволяющие предприятиям получить максимальную отдачу от вложений

🔎Директор ИСП РАН, академик РАН Арутюн Аветисян выступил ведущим и спикером пленарного заседания конференции «Искусственный интеллект: вызовы и возможности», где был представлен опыт использования AI/ML в различных отраслях, вопросы доверия и информационной безопасности.

🎙 Арутюн Аветисян, директор ИСП РАН, академик РАН.

➡️ «Искусственный интеллект внедряется во все сферы деятельности, а также в разы повышает продуктивность труда. И связано это в первую очередь с широтой внедрения и дальнейшим внедрением с снижением стоимости. Данные появляются все больше и больше, и суперкомпьютерная мощность становится все дешевле и доступнее. Даже в школах начинают преподавать искусственный интеллект.

💡 Достаточно большое количество людей доверяет искусственному интеллекту, и при этом в нашем стратегическом документе в апреле прошлого года было точно обозначено, что не обеспечив доверие к соответствующим технологиям в критических областях, ее точно нельзя внедрять.

✔️Уже точно определено, что доверие состоит по сути из двух частей: это самобезопасность, если говорить в стэковском смысле и социо-гуманитарный аспект, потому что технологии искусственного интеллекта влияют на людей, и это не только большие модели.

В России было организовано движение по этике искусственного интеллекта, оно продолжается: многие компании, в том числе ИСП РАН поддержали декларацию.

[Декларация этических принципов создания и использования систем ИИ была утверждена Учёным советом НИУ ВШЭ 26 июня 2024 года. Документ охватывает ряд ключевых принципов, направленных на этичное и ответственное использование ИИ].

✔️Без регуляторики мы обречены остаться один на один с искусственным интеллектом и ничего с этим не сделаем.

🔵Бездумное внедрение во все сферы с этим ужасающим ростом дешевизны и качества; роста качества и падения стоимости приводит к тому, что мы везде начинаем внедрять ИИ. Регуляторики никакой нет. Учитывая все отрицательные последствия, люди начали бить тревогу, но, к сожалению, не были услышаны. Наоборот, скорее разработки наращивались. Однако на уровне государств с 2023 года пошла уже жесткая риторика, что необходимо вводить нормы регулирования ИИ, иначе внедрения не будет.

И в Европе, и в США, и в Китае, и у нас это уже обсуждается (будет принято законодательно), что любой сгенерированный контент должен обладать водяными знаками, чтобы мы как могли знать, смотрим мы сгенерированный контент или нет. Технологически это сделать невозможно, можно только заставить производителя сгенерированного контента включить водяные знаки.

➡️Считается, что в ближайшее время появятся технологические возможности, контролировать то, что есть на рынке ИИ.

🏷Регуляторика должна появиться как следствие достижения науки, а не просто декларативно.

❗️Сейчас в мире есть десятки открытых проектов, которые направлены на эту область. В рамках нашего центра, который мы создали, мы уже создали ряд технологий. В прошлом году был создан консорциум — это Институт системного программирования РАН, АНО Национальный технологический центр цифровой криптографии (НТЦ ЦК). Сейчас к этому консорциуму подключился уже ряд компаний».

#НОП

BY НОП. Научно-образовательная политика








Share with your friend now:
group-telegram.com/szhenov/14553

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"The inflation fire was already hot and now with war-driven inflation added to the mix, it will grow even hotter, setting off a scramble by the world’s central banks to pull back their stimulus earlier than expected," Chris Rupkey, chief economist at FWDBONDS, wrote in an email. "A spike in inflation rates has preceded economic recessions historically and this time prices have soared to levels that once again pose a threat to growth." Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy." In December 2021, Sebi officials had conducted a search and seizure operation at the premises of certain persons carrying out similar manipulative activities through Telegram channels. The regulator said it had received information that messages containing stock tips and other investment advice with respect to selected listed companies are being widely circulated through websites and social media platforms such as Telegram, Facebook, WhatsApp and Instagram.
from sg


Telegram НОП. Научно-образовательная политика
FROM American