Building AI literacy.pdf
2 MB
🇳🇱 Управление по защите данных Нидерландов опубликовало руководство по развитию грамотности в области ИИ
Управление по защите данных Нидерландов (Autoriteit Persoonsgegevens) опубликовало руководство по развитию грамотности в области ИИ. Агентство заявило, что грамотность в области ИИ критически важна для разработки и внедрения ответственных систем ИИ и алгоритмов.
Руководство содержит информацию о правовых обязательствах и практические примеры реализации периодически обновляемого плана действий Управления по защите данных.
#AILliteracy
Управление по защите данных Нидерландов (Autoriteit Persoonsgegevens) опубликовало руководство по развитию грамотности в области ИИ. Агентство заявило, что грамотность в области ИИ критически важна для разработки и внедрения ответственных систем ИИ и алгоритмов.
Руководство содержит информацию о правовых обязательствах и практические примеры реализации периодически обновляемого плана действий Управления по защите данных.
#AILliteracy
👍8❤3
🇦🇺 Правительство Австралии опубликовало руководство по ответственному управлению ИИ
Министерство промышленности, науки и ресурсов Австралии опубликовало руководство для организаций, внедряющих технологии ИИ. В документе изложены шесть ключевых практик, которым должны следовать организации для продвижения ответственного внедрения и управления ИИ.
Руководство представлено в двух версиях:
✔️ Основы для организаций, начинающих внедрять ИИ;
✔️ Практики внедрения для специалистов по управлению и технических экспертов.
#ОтветственныйИИ
Министерство промышленности, науки и ресурсов Австралии опубликовало руководство для организаций, внедряющих технологии ИИ. В документе изложены шесть ключевых практик, которым должны следовать организации для продвижения ответственного внедрения и управления ИИ.
Руководство представлено в двух версиях:
#ОтветственныйИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2
🇺🇸 В США OpenAI обязали предоставить данные о промптах пользователей в рамках уголовного расследования
По сообщению Forbes Департамент внутренней безопасности США запросил у ChatGPT историю промтов пользователей.
При этом от OpenAI не требовалось сообщать личность пользователя, и какие именно данные запрашивали правоохранители, точно не известно. Вместе с тем, этот случай демонстрирует, что правоохранительные органы могут использовать историю чат-ботов для сбора информации о человеке в ходе расследования.
#ИИ #Privacy
По сообщению Forbes Департамент внутренней безопасности США запросил у ChatGPT историю промтов пользователей.
При этом от OpenAI не требовалось сообщать личность пользователя, и какие именно данные запрашивали правоохранители, точно не известно. Вместе с тем, этот случай демонстрирует, что правоохранительные органы могут использовать историю чат-ботов для сбора информации о человеке в ходе расследования.
#ИИ #Privacy
Forbes
DHS Ordered OpenAI To Share User Data In First Known Warrant For ChatGPT Prompts
Filed by child exploitation investigators with the DHS, the warrant reveals the government can ask OpenAI to provide information on anyone who enters specific prompts.
🤔6👍4
📖 В отчёте BSI выявлены пробелы между внедрением ИИ и управлением рисками
Британский институт стандартов опубликовал отчет, в котором описывается значительный разрыв между компаниями, планирующими внедрение ИИ, и теми, у кого есть отдельный план по управлению сопутствующими рисками.
Исследование показало, что только четверть компаний имеют программу управления рисками ИИ, но при этом целых 62% планируют увеличить инвестиции в ИИ в следующем году.
"Как показывает этот отчёт, многие компании стремятся продемонстрировать, что используют преимущества ИИ. Однако организации не всегда задумываются о том, приносит ли внедряемый ими ИИ реальную пользу, и о рисках, которым они потенциально подвергают свою организацию".
#УправлениеИИ
Британский институт стандартов опубликовал отчет, в котором описывается значительный разрыв между компаниями, планирующими внедрение ИИ, и теми, у кого есть отдельный план по управлению сопутствующими рисками.
Исследование показало, что только четверть компаний имеют программу управления рисками ИИ, но при этом целых 62% планируют увеличить инвестиции в ИИ в следующем году.
"Как показывает этот отчёт, многие компании стремятся продемонстрировать, что используют преимущества ИИ. Однако организации не всегда задумываются о том, приносит ли внедряемый ими ИИ реальную пользу, и о рисках, которым они потенциально подвергают свою организацию".
#УправлениеИИ
👍6
🇮🇳 В Индии опубликованы Руководящие принципы управления ИИ
Индия опубликовала Руководящие принципы управления искусственным интеллектом (AI Governance Guidelines), которые включают следующее:
✔️ Доверие — основа
✔️ Люди прежде всего
✔️ Инновации важнее ограничений
✔️ Справедливость и равенство
✔️ Ответственность
✔️ Понятный дизайн
✔️ Безопасность, устойчивость и устойчивое развитие
Принцип "инновации важнее ограничений", который предусматривает, что «при прочих равных условиях ответственное новаторство должно иметь приоритет над излишней осторожностью» говорит о том, что Индия дистанцируется от более сдержанного европейского подхода и встает на сторону «проинновационной» линии США.
Документ также содержит положения об инфраструктуре, развитии компетенций, политике и регулировании, снижении рисков, подотчётности.
#ИИ #ИИРегулирование #Право #ИИЭтика #Индия
Индия опубликовала Руководящие принципы управления искусственным интеллектом (AI Governance Guidelines), которые включают следующее:
Принцип "инновации важнее ограничений", который предусматривает, что «при прочих равных условиях ответственное новаторство должно иметь приоритет над излишней осторожностью» говорит о том, что Индия дистанцируется от более сдержанного европейского подхода и встает на сторону «проинновационной» линии США.
Документ также содержит положения об инфраструктуре, развитии компетенций, политике и регулировании, снижении рисков, подотчётности.
#ИИ #ИИРегулирование #Право #ИИЭтика #Индия
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10✍1❤1
⚖️ Против OpenAI поданы новые иски о нанесении вреда психическому здоровью
Social Media Victims Law Center и Tech Justice Law Project инициировали подучу семи исков против OpenAI. В исках утверждается, что ChatGPT способствовал случаям самоубийств и другим психологическим проблемам пользователей. Центральным аргументов во всех делах является "психологическая манипуляция", так как, по мнению истцов, чат-боты на основе ИИ усиливают проблемы с психическим здоровьем, соглашаясь с негативными мыслями пользователей и усугубляя их.
В исках также обращают внимание на то, что антропоморфный и эмоционально отзывчивый дизайн ИИ способствует зависимости и мешает уязвимым пользователям обращаться за реальной помощью.
#ИИ #Право #ИИЭтика #OpenAI
Social Media Victims Law Center и Tech Justice Law Project инициировали подучу семи исков против OpenAI. В исках утверждается, что ChatGPT способствовал случаям самоубийств и другим психологическим проблемам пользователей. Центральным аргументов во всех делах является "психологическая манипуляция", так как, по мнению истцов, чат-боты на основе ИИ усиливают проблемы с психическим здоровьем, соглашаясь с негативными мыслями пользователей и усугубляя их.
В исках также обращают внимание на то, что антропоморфный и эмоционально отзывчивый дизайн ИИ способствует зависимости и мешает уязвимым пользователям обращаться за реальной помощью.
#ИИ #Право #ИИЭтика #OpenAI
Social Media Victims Law Center
SMVLC Files 7 Lawsuits Accusing Chat GPT of Emotional Manipulation, Acting as "Suicide Coach" - Social Media Victims Law Center
The suits claim that OpenAI knowingly released GPT-4o prematurely, despite internal warnings that the product was dangerously sycophantic and psychologically manipulative.
👍8⚡1
📖 EY опубликовали отчет об агентном ИИ
Компания Ernst & Young опубликовала отчёт Unlocking the potential of agentic AI: definitions, risks and guardrails. В документе рассматриваются определения, риски и границы применения технологий ИИ-агентов по мере их перехода от экспериментальных моделей к практическому использованию.
EY призывает компании внедрять усиленные превентивные механизмы контроля за использованием агентного ИИ, а также постоянно мониторить поведение и эффективность таких систем.
#ИИ #ИИАгенты #ИИЭтика #Право
Компания Ernst & Young опубликовала отчёт Unlocking the potential of agentic AI: definitions, risks and guardrails. В документе рассматриваются определения, риски и границы применения технологий ИИ-агентов по мере их перехода от экспериментальных моделей к практическому использованию.
EY призывает компании внедрять усиленные превентивные механизмы контроля за использованием агентного ИИ, а также постоянно мониторить поведение и эффективность таких систем.
#ИИ #ИИАгенты #ИИЭтика #Право
Ey
Unlocking the potential of agentic AI: definitions, risks and guardrails
Explore agentic AI’s potential, how it differs from traditional systems, and why strong governance is key to managing its unique risks and capabilities.
👍8
🇺🇸 В Нью-Йорке вступил в силу закон о безопасности ИИ-компаньонов
В штате Нью-Йорк принят закон, прямо регулирующий применение ИИ-компаньонов (New York Senate Bill 3008). Закон обязывает разработчиков внедрять чёткие механизмы безопасности и прозрачности. С 5 ноября вступило в силу требование, согласно которому все ИИ-компаньоны должны иметь протоколы для реагирования на проявления суицидальных мыслей, угроз причинения вреда другим людям и возможного финансового ущерба. Эти протоколы должны направлять пользователей к службам экстренной помощи, например, на горячие линии по предотвращению самоубийств.
Закон также предписывает регулярные уведомления пользователю с текстом: "ИИ-Компаньон — это компьютерная программа, а не человек. Она не способна испытывать человеческие эмоции". Это сообщение должно появляться в начале каждой сессии и каждые три часа в ходе длительного взаимодействия, чтобы предотвратить чрезмерную эмоциональную зависимость пользователя от ИИ.
Раздел об ответственности предусматривает, что лица, пострадавшие в результате самоповреждения или причинения вреда другими людьми из-за нарушения требований закона, могут обращаться в суд за возмещением ущерба.
#ИИ #Право #ИИКомпаньоны #ИИБезопасность #ОтветственностьИИ
В штате Нью-Йорк принят закон, прямо регулирующий применение ИИ-компаньонов (New York Senate Bill 3008). Закон обязывает разработчиков внедрять чёткие механизмы безопасности и прозрачности. С 5 ноября вступило в силу требование, согласно которому все ИИ-компаньоны должны иметь протоколы для реагирования на проявления суицидальных мыслей, угроз причинения вреда другим людям и возможного финансового ущерба. Эти протоколы должны направлять пользователей к службам экстренной помощи, например, на горячие линии по предотвращению самоубийств.
Закон также предписывает регулярные уведомления пользователю с текстом: "ИИ-Компаньон — это компьютерная программа, а не человек. Она не способна испытывать человеческие эмоции". Это сообщение должно появляться в начале каждой сессии и каждые три часа в ходе длительного взаимодействия, чтобы предотвратить чрезмерную эмоциональную зависимость пользователя от ИИ.
Раздел об ответственности предусматривает, что лица, пострадавшие в результате самоповреждения или причинения вреда другими людьми из-за нарушения требований закона, могут обращаться в суд за возмещением ущерба.
#ИИ #Право #ИИКомпаньоны #ИИБезопасность #ОтветственностьИИ
LegiScan
New York S03008 | 2025-2026 | General Assembly
Bill Text (2025-05-09) Enacts into law major components of legislation necessary to implement the state transportation, economic development and environmental conservation budget for the 2025-2026 state fiscal year; relates to the waterfront commission act;…
1👍8❤3😡1
📖 IAPP расширила свой глоссарий терминов по управлению ИИ
Международная ассоциация специалистов по вопросам конфиденциальности (International Association of Privacy Professionals, IAPP) выпустила обновлённую версию своего справочника терминов Key Terms for AI Governance, который теперь включает более 100 основных понятий, используемых профессионалами в области регулирования и управления ИИ. Для сравнения, первое издание, опубликованное осенью 2023 года, содержало 61 термин. В обновление 2025 года добавлены новые термины, отражающие актуальные сценарии использования ИИ и проблемы, выявленные сообществом IAPP и его партнёрами.
Каждое определение основано на авторитетных источниках: законодательных актах и международных документах, что должно обеспечить согласованность с глобальной системой регулирования ИИ.
#ИИ #ИИРегулирование #Этика #Право #IAPP #УправлениеИИ
Международная ассоциация специалистов по вопросам конфиденциальности (International Association of Privacy Professionals, IAPP) выпустила обновлённую версию своего справочника терминов Key Terms for AI Governance, который теперь включает более 100 основных понятий, используемых профессионалами в области регулирования и управления ИИ. Для сравнения, первое издание, опубликованное осенью 2023 года, содержало 61 термин. В обновление 2025 года добавлены новые термины, отражающие актуальные сценарии использования ИИ и проблемы, выявленные сообществом IAPP и его партнёрами.
Каждое определение основано на авторитетных источниках: законодательных актах и международных документах, что должно обеспечить согласованность с глобальной системой регулирования ИИ.
#ИИ #ИИРегулирование #Этика #Право #IAPP #УправлениеИИ
iapp.org
Key Terms for AI Governance
This glossary provides definitions and explanations for some of the most common terms related to AI governance.
👍10🔥1
🇩🇪 Немецкий суд признал компанию OpenAI виновной в нарушении авторских прав
По сообщениям Reuters, 42-я гражданская палата Земельного суда Мюнхена постановила, что OpenAI нарушила немецкое законодательство об авторском праве, использовав тексты песен для обучения своих языковых моделей. Суд обязал компанию выплатить нераскрытую сумму компенсации за использование защищённых авторским правом материалов.
#ИИ #Право #АвторскиеПрава #Этика #OpenAI #Германия
По сообщениям Reuters, 42-я гражданская палата Земельного суда Мюнхена постановила, что OpenAI нарушила немецкое законодательство об авторском праве, использовав тексты песен для обучения своих языковых моделей. Суд обязал компанию выплатить нераскрытую сумму компенсации за использование защищённых авторским правом материалов.
#ИИ #Право #АвторскиеПрава #Этика #OpenAI #Германия
Reuters
OpenAI used song lyrics in violation of copyright laws, German court says
OpenAI's chatbot ChatGPT violated German copyright laws by reproducing lyrics from songs by best-selling musician Herbert Groenemeyer and others, a court ruled on Tuesday, in a closely watched case against the U.S. firm over its use of lyrics to train its…
👍10👏1🎉1
🇪🇺 Европейский регулятор опубликовал рекомендации по управлению рисками ИИ
Европейский надзорный орган по защите данных (European Data Protection Supervisor, EDPS) выпустил рекомендации, направленные на поддержку операторов персональных данных при оценке рисков в процессе разработки, закупки и внедрения систем ИИ. Документ ориентирован на учреждения, службы и агентства ЕС, но также он может быть полезен и частным организациям.
Рекомендации содержат структурированный подход к методологиям управления рисками и контролю на всём жизненном цикле ИИ. Также в документе анализируются отдельные категории рисков и предлагаются соответствующие технические меры их снижения.
#ИИ #Право #ЗащитаДанных
Европейский надзорный орган по защите данных (European Data Protection Supervisor, EDPS) выпустил рекомендации, направленные на поддержку операторов персональных данных при оценке рисков в процессе разработки, закупки и внедрения систем ИИ. Документ ориентирован на учреждения, службы и агентства ЕС, но также он может быть полезен и частным организациям.
Рекомендации содержат структурированный подход к методологиям управления рисками и контролю на всём жизненном цикле ИИ. Также в документе анализируются отдельные категории рисков и предлагаются соответствующие технические меры их снижения.
#ИИ #Право #ЗащитаДанных
👍5❤1
📖 Новый доклад от Центра лидерства в области информационной политики об ответственном внедрении агентного ИИ на рабочем месте
Центр лидерства в области информационной политики (Centre for Information Policy Leadership, CIPL) опубликовал новый доклад Agentic AI: Fostering Responsible and Beneficial Development and Adoption. В документе рассматриваются вопросы необходимости обеспечить законное основание для сбора данных ИИ-агентами, установления надлежащего уровня человеческого контроля и защиты информации, к которой ИИ-агент получает доступ.
#ИИ #Право #АгентныйИИ
Центр лидерства в области информационной политики (Centre for Information Policy Leadership, CIPL) опубликовал новый доклад Agentic AI: Fostering Responsible and Beneficial Development and Adoption. В документе рассматриваются вопросы необходимости обеспечить законное основание для сбора данных ИИ-агентами, установления надлежащего уровня человеческого контроля и защиты информации, к которой ИИ-агент получает доступ.
#ИИ #Право #АгентныйИИ
👍5
🇪🇺 ЕС запускает разработку Кодекса практики по маркировке контента, созданного ИИ
Европейская комиссия приступила к формированию кодекса практики по маркировке и обозначению контента, сгенерированного искусственным интеллектом. Кодекс будет направлен на решение проблемы различения между материалами, созданными человеком, и контентом, сгенерированным ИИ, а также на снижение рисков дезинформации, мошенничества, выдачи себя за другое лицо и обмана потребителей. Кодекс будет носить добровольный характер и поможет поставщикам моделей ИИ выполнить требования прозрачности Регламента ЕС об ИИ.
Ожидается, что в кодексе будут описаны машинно-читаемые форматы маркировки для аудио, изображений, видео и текста, и уделено особое внимание раскрытию факта использования ИИ в вопросах, представляющих общественный интерес.
Процесс разработки под руководством независимых экспертов, назначенных Европейским офисом ИИ, продлится семь месяцев и предполагает также и публичные консультации.
#ИИ #Право #Регулирование #ЕС
Европейская комиссия приступила к формированию кодекса практики по маркировке и обозначению контента, сгенерированного искусственным интеллектом. Кодекс будет направлен на решение проблемы различения между материалами, созданными человеком, и контентом, сгенерированным ИИ, а также на снижение рисков дезинформации, мошенничества, выдачи себя за другое лицо и обмана потребителей. Кодекс будет носить добровольный характер и поможет поставщикам моделей ИИ выполнить требования прозрачности Регламента ЕС об ИИ.
Ожидается, что в кодексе будут описаны машинно-читаемые форматы маркировки для аудио, изображений, видео и текста, и уделено особое внимание раскрытию факта использования ИИ в вопросах, представляющих общественный интерес.
Процесс разработки под руководством независимых экспертов, назначенных Европейским офисом ИИ, продлится семь месяцев и предполагает также и публичные консультации.
#ИИ #Право #Регулирование #ЕС
Shaping Europe’s digital future
Commission launches work on a code of practice on marking and labelling AI-generated content
On 5 November 2025, the Commission launched work on a code of practice on the marking and labelling of AI-generated content.
👍7
🇺🇸 В Орегоне суд не наложил санкции на юристов, использовавших фальшивые ИИ-цитаты
В Орегоне суд отказался налагать формальные санкции на юристов юридической фирмы Buchalter после того, как они подали документ с фальшивыми судебными цитатами, сгенерированными искусственным интеллектом. В своём постановлении судья отметил, что считает достаточными предпринятые фирмой исправительные меры (пожертвование в размере 5 000 долларов местной организации, предоставляющей юридическую помощь, внутренний пересмотр механизмов защиты от неправильного использования ИИ и предложение компенсировать любые юридические расходы, понесённые их клиентом и противоположной стороной из-за инцидента).
#ИИ #Право #LegalTech
В Орегоне суд отказался налагать формальные санкции на юристов юридической фирмы Buchalter после того, как они подали документ с фальшивыми судебными цитатами, сгенерированными искусственным интеллектом. В своём постановлении судья отметил, что считает достаточными предпринятые фирмой исправительные меры (пожертвование в размере 5 000 долларов местной организации, предоставляющей юридическую помощь, внутренний пересмотр механизмов защиты от неправильного использования ИИ и предложение компенсировать любые юридические расходы, понесённые их клиентом и противоположной стороной из-за инцидента).
#ИИ #Право #LegalTech
🔥5🤔2
The-Role-GenAI-Proving-Corporate-Law Department-Value.pdf
1.7 MB
📖 Новый отчет Everlaw и ACC: The Role of Generative AI in Proving Corporate Law Department Value
Опубликован интересный отчет Everlaw и Ассоциации корпоративных юристов (ACC), который показывает, что большинство опрошенных юристов считают, что генеративный ИИ усилит способность юрдепартаментов демонстрировать свою ценность бизнесу.
81% участников опроса в качестве основного преимущества использования генеративного ИИ называют ускорение юридической поддержки и разрешения дел. Однако при этом большинству команд не хватает инфраструктуры, чтобы точно подтвердить это мнение, так как только 12% отслеживают окупаемость технологий, и лишь 16% подсчитывают результаты в привязке к затратам.
76% ожидают, что генеративный ИИ повысит внутреннюю эффективность, 43% - что он поможет находить возможности снижения затрат на внешних консультантов и улучшит анализ биллинга.
#ИИ #LegalTech
Опубликован интересный отчет Everlaw и Ассоциации корпоративных юристов (ACC), который показывает, что большинство опрошенных юристов считают, что генеративный ИИ усилит способность юрдепартаментов демонстрировать свою ценность бизнесу.
81% участников опроса в качестве основного преимущества использования генеративного ИИ называют ускорение юридической поддержки и разрешения дел. Однако при этом большинству команд не хватает инфраструктуры, чтобы точно подтвердить это мнение, так как только 12% отслеживают окупаемость технологий, и лишь 16% подсчитывают результаты в привязке к затратам.
76% ожидают, что генеративный ИИ повысит внутреннюю эффективность, 43% - что он поможет находить возможности снижения затрат на внешних консультантов и улучшит анализ биллинга.
#ИИ #LegalTech
👍8
📖 Пользователи заводят детей с ИИ-партнерами
Computers in Human Behavior: Artificial Humans опубликовали новое исследование Love, marriage, pregnancy: Commitment processes in romantic relationships with AI chatbots. Результаты исследования описывают новое явление во взаимодействии человека и ИИ: пользователи вступают в «романтические» отношения с чат-ботами и даже разыгрывают создание семьи. В опросе 29 пользователей Replika в возрасте от 16 до 72 лет исследователи зафиксировали привязанности, включающие воображаемые браки, совместное проживание, сексуальные отношения и даже беременности. Участники открыто говорили, что «влюблены» в своих ботов, одновременно признавая технологические ограничения таких связей.
При этом наблюдается очень быстрый рост подобных ИИ-платформ для романтических отношений, что вызывает новые этические вопросы связанные с эмоциональной безопасностью пользователей и ответственностью платформ.
#ИИ #Этика #ResponsibleAI
Computers in Human Behavior: Artificial Humans опубликовали новое исследование Love, marriage, pregnancy: Commitment processes in romantic relationships with AI chatbots. Результаты исследования описывают новое явление во взаимодействии человека и ИИ: пользователи вступают в «романтические» отношения с чат-ботами и даже разыгрывают создание семьи. В опросе 29 пользователей Replika в возрасте от 16 до 72 лет исследователи зафиксировали привязанности, включающие воображаемые браки, совместное проживание, сексуальные отношения и даже беременности. Участники открыто говорили, что «влюблены» в своих ботов, одновременно признавая технологические ограничения таких связей.
При этом наблюдается очень быстрый рост подобных ИИ-платформ для романтических отношений, что вызывает новые этические вопросы связанные с эмоциональной безопасностью пользователей и ответственностью платформ.
#ИИ #Этика #ResponsibleAI
🤔7👍4
🇺🇸 Президент Трамп выпустил указ о единой федеральной ИИ-платформе
Президент США подписал указ Launching the Genesis Mission, в котором поручил разработать единую платформу искусственного интеллекта "для использования федеральных научных наборов данных – крупнейшего в мире собрания таких наборов данных, созданного за десятилетия федеральных инвестиций, – для обучения научных моделей и создания ИИ-агентов для проверки новых гипотез, автоматизации исследовательских процессов и ускорения научных прорывов".
Указ провозглашает "Миссию Генезис" - "целенаправленную, скоординированную национальную инициативу, призванную начать новую эру инноваций и открытий на основе ИИ, способных решить самые сложные проблемы этого столетия".
Белый дом называет инициативу крупнейшей координацией исследовательских ресурсов со времён программы "Аполлон".
#ИИ #США
Президент США подписал указ Launching the Genesis Mission, в котором поручил разработать единую платформу искусственного интеллекта "для использования федеральных научных наборов данных – крупнейшего в мире собрания таких наборов данных, созданного за десятилетия федеральных инвестиций, – для обучения научных моделей и создания ИИ-агентов для проверки новых гипотез, автоматизации исследовательских процессов и ускорения научных прорывов".
Указ провозглашает "Миссию Генезис" - "целенаправленную, скоординированную национальную инициативу, призванную начать новую эру инноваций и открытий на основе ИИ, способных решить самые сложные проблемы этого столетия".
Белый дом называет инициативу крупнейшей координацией исследовательских ресурсов со времён программы "Аполлон".
#ИИ #США
The White House
Launching the Genesis Mission
By the authority vested in me as President by the Constitution and the laws of the United States of America, it is hereby ordered: Section 1. Purpose.
👍6⚡2
📖 Общественные организации предупреждают об опасности игрушек с ИИ
Американские правозащитные организации Fairplay и Public Interest Research Group опубликовали призыв не покупать игрушки с ИИ в качестве рождественских подарков. Как следует из документа AI Toys are NOT Safe for Kids, ряд игрушек с ИИ не только подвергают детей риску столкновения с непристойным контентом, но и фактически направляют их к опасному поведению. В качестве примера рассказывается о медвежонке “Kumma” от FoloToy, который, как показали тесты, охотно обсуждал откровенные темы и давал инструкции по доступу к спичкам и ножам. OpenAI уже приостановила доступ FoloToy к своему API за нарушение политик, а компания-производитель отозвала продукцию и начала внутренний аудит безопасности.
Кроме того, исследователи обнаружили, что некоторые игрушки с ИИ используют постоянно активированные микрофоны для записи голосов детей и сбора персональной информации, которая, как выяснилось иногда передавалась третьим лицам. Документ также описывает риски для развития детей в связи с наличием навязчивых механик взаимодействия и паттернов, способные искажать раннее социальное развитие.
#ИИ #ИИЭтика
Американские правозащитные организации Fairplay и Public Interest Research Group опубликовали призыв не покупать игрушки с ИИ в качестве рождественских подарков. Как следует из документа AI Toys are NOT Safe for Kids, ряд игрушек с ИИ не только подвергают детей риску столкновения с непристойным контентом, но и фактически направляют их к опасному поведению. В качестве примера рассказывается о медвежонке “Kumma” от FoloToy, который, как показали тесты, охотно обсуждал откровенные темы и давал инструкции по доступу к спичкам и ножам. OpenAI уже приостановила доступ FoloToy к своему API за нарушение политик, а компания-производитель отозвала продукцию и начала внутренний аудит безопасности.
Кроме того, исследователи обнаружили, что некоторые игрушки с ИИ используют постоянно активированные микрофоны для записи голосов детей и сбора персональной информации, которая, как выяснилось иногда передавалась третьим лицам. Документ также описывает риски для развития детей в связи с наличием навязчивых механик взаимодействия и паттернов, способные искажать раннее социальное развитие.
#ИИ #ИИЭтика
👍5
🇺🇸 В США против компании Figma подан иск о незаконном использовании пользовательских данных для обучения модели
В США подан иск против компании Figma, в котором утверждается, что Figma (облачная платформа, которая долгие годы позиционировалась как безопасная облачная среда для совместной работы над дизайном) в 2024 году без предупреждения пользователей включила функцию “Content Training”, что позволило обучать генеративные модели на загруженных пользователями творческих материалах, коммерчески чувствительных данных и объектах интеллектуальной собственности.
#ИИ #IP
В США подан иск против компании Figma, в котором утверждается, что Figma (облачная платформа, которая долгие годы позиционировалась как безопасная облачная среда для совместной работы над дизайном) в 2024 году без предупреждения пользователей включила функцию “Content Training”, что позволило обучать генеративные модели на загруженных пользователями творческих материалах, коммерчески чувствительных данных и объектах интеллектуальной собственности.
#ИИ #IP
CourtListener
Complaint – #1 in Khan v. Figma, Inc. (N.D. Cal., 3:25-cv-10054) – CourtListener.com
👍9
🇺🇸 USPTO пересматривает подход к изобретениям при помощи ИИ
Патентное ведомство США (USPTO) опубликовало новое руководство, подтвердив, что ИИ может помогать в создании изобретений, но не может заменять или разделять авторство. При этом USPTO отменило прошлогоднее руководство о патентовании для ИИ и вернулось к существующему стандарту, согласно которому для всех изобретений применяется одинаковый тест на установление автора, независимо от того, использовался ли ИИ в процессе создания. Генеративный ИИ будет рассматриваться как «лабораторное оборудование» или любой другой исследовательский инструмент, а не как со-изобретатель.
Таким образом, ведомство отказалось от прежнего подхода администрации Байдена, основанного на доктрине «соавторства», применявшейся к случаям с несколькими изобретателями. Вместо этого экспертам предписано задавать вопрос, сформировал ли человек замысел изобретения в рамках традиционной концепции.
#ИИ #ИнтеллектуальнаяСобственность #IP
Патентное ведомство США (USPTO) опубликовало новое руководство, подтвердив, что ИИ может помогать в создании изобретений, но не может заменять или разделять авторство. При этом USPTO отменило прошлогоднее руководство о патентовании для ИИ и вернулось к существующему стандарту, согласно которому для всех изобретений применяется одинаковый тест на установление автора, независимо от того, использовался ли ИИ в процессе создания. Генеративный ИИ будет рассматриваться как «лабораторное оборудование» или любой другой исследовательский инструмент, а не как со-изобретатель.
Таким образом, ведомство отказалось от прежнего подхода администрации Байдена, основанного на доктрине «соавторства», применявшейся к случаям с несколькими изобретателями. Вместо этого экспертам предписано задавать вопрос, сформировал ли человек замысел изобретения в рамках традиционной концепции.
#ИИ #ИнтеллектуальнаяСобственность #IP
❤5⚡1
