🇨🇳 Китай обновил стратегию управления безопасностью ИИ На форуме Национальной недели кибербезопасности представлена вторая
версия «Рамочной структуры управления безопасностью искусственного интеллекта» (AI Safety Governance Framework 2.0). Документ разработан под эгидой Управления по вопросам киберпространства Китая (CAC) совместно с научными институтами и компаниями.
🎯 Цель новой версии – пересмотреть систему оценки рисков, контрольных мер и гарантий для устойчивого и безопасного развития сектора ИИ.
🔍 Что нового:🔵 вводится градация рисков ИИ и уточняется их классификация;
🔵 сформулированы базовые принципы «доверенного» ИИ;
🔵 устанавливаются дифференцированные подходы к моделям с разными уровнями риска;
🔵 усиливаются этические проверки и технические стандарты;
🔵 закреплен обязательный непрерывный мониторинг новых рисков;
🔵 предусмотрены новые меры комплексного регулирования с участием государства, бизнеса, пользователей и НКО;
🔵 подчёркивается необходимость многостороннего и трансграничного сотрудничества в сфере ИИ-безопасности.
💬 Как отметил
Чэнь Цзин, вице-президент Института исследований технологий и стратегий, эти нововведения отражают реакцию на новые риски, вызванные стремительной эволюцией ИИ, и подчеркивают наиболее сложные проблемы управления в настоящее время.
❗️ По его словам, ключевым отличием версии 2.0 является
переход от «статического соблюдения» к «динамическому управлению», что представляет собой существенный сдвиг в управленческом мышлении в области ИИ.
#AI #Regulation #Safety #China