Notice: file_put_contents(): Write of 11857 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 12288 of 24145 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
Ирина Филатова | Telegram Webview: ifilato/2216 -
Telegram Group & Telegram Channel
⚡️На состоявшейся в рамках ПМЭФ сессии «Искусственный интеллект в здравоохранении: от технологического прорыва к системным изменениям» выступила с докладом, посвященном этико-правовым коллизиям в этой сфере.

❗️Чем шире ИИ применяется в здравоохранении, тем больше возникает вопросов и конфликтов.

Среди них ➡️

📌 Объяснимость.

При выдаче результатов система не всегда может объяснить, на каком основании она приняла решение.

📌 Предвзятость алгоритмов.

Системы ИИ хороши настолько, насколько хороши данные, на которых они обучаются. Если эти данные неполны или плохо интерпретированы, конечный результат может быть катастрофическим.

📌 Влияние на врачебную практику.

ИИ может изменить роль врачей, сделав их больше консультантами, чем диагностами, что может привести к потере навыков и утрате доверия. 

📌 Использование данных без согласия пациента.

Использование биометрических и персональных данных для целей, не связанных с лечением, может привести к злоупотреблениям.

📌 Риск утечки персональных данных.

ПД представляют колоссальный интерес для кибермошенников, которые могут нанести существенный вред гражданам.

📌 Ответственность за ошибки ИИ.

Если система ошибается, кто должен нести ответственность — врач, использующий ее, разработчики, создавшие ее, или владельцы? 

Главнейший принцип защиты персональных данных — концепция минимизации: данные не должны храниться дольше, чем требуется для достижения целей их обработки. Однако главным фактором успеха в работе ИИ является максимизация данных. Возникает конфликт интересов.

❗️Задача государства — соблюсти интересы всех сторон- граждан, бизнеса и государства.

📌 Владение данными.

Они могут быть собраны без явного согласия или даже понимания пациентов.

Пробелы в информационной безопасности ИИ-систем чреваты еще и прямыми угрозами жизни и здоровью. Один из примеров — удаленный взлом кардиостимулятора. В критическом случае это может привести к массовым убийствам. 

❗️Методы решения этических проблем➡️

разработка стандартов и правил,

подготовка специалистов,

информирование пациентов.

❗️Разработка этических регламентов в медицине — задача чрезвычайной сложности.

С одной стороны, нужно обеспечить развитие инновационных технологий, способных повысить точность диагностики и доступность помощи, оптимизировать ресурсы. С другой — сохранить человеческое измерение медицины, где каждый пациент не просто объект анализа, а субъект с правами, страхами и ожиданиями.

 
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7521👍17💯17👏14🤔13👎6🤝1



group-telegram.com/ifilato/2216
Create:
Last Update:

⚡️На состоявшейся в рамках ПМЭФ сессии «Искусственный интеллект в здравоохранении: от технологического прорыва к системным изменениям» выступила с докладом, посвященном этико-правовым коллизиям в этой сфере.

❗️Чем шире ИИ применяется в здравоохранении, тем больше возникает вопросов и конфликтов.

Среди них ➡️

📌 Объяснимость.

При выдаче результатов система не всегда может объяснить, на каком основании она приняла решение.

📌 Предвзятость алгоритмов.

Системы ИИ хороши настолько, насколько хороши данные, на которых они обучаются. Если эти данные неполны или плохо интерпретированы, конечный результат может быть катастрофическим.

📌 Влияние на врачебную практику.

ИИ может изменить роль врачей, сделав их больше консультантами, чем диагностами, что может привести к потере навыков и утрате доверия. 

📌 Использование данных без согласия пациента.

Использование биометрических и персональных данных для целей, не связанных с лечением, может привести к злоупотреблениям.

📌 Риск утечки персональных данных.

ПД представляют колоссальный интерес для кибермошенников, которые могут нанести существенный вред гражданам.

📌 Ответственность за ошибки ИИ.

Если система ошибается, кто должен нести ответственность — врач, использующий ее, разработчики, создавшие ее, или владельцы? 

Главнейший принцип защиты персональных данных — концепция минимизации: данные не должны храниться дольше, чем требуется для достижения целей их обработки. Однако главным фактором успеха в работе ИИ является максимизация данных. Возникает конфликт интересов.

❗️Задача государства — соблюсти интересы всех сторон- граждан, бизнеса и государства.

📌 Владение данными.

Они могут быть собраны без явного согласия или даже понимания пациентов.

Пробелы в информационной безопасности ИИ-систем чреваты еще и прямыми угрозами жизни и здоровью. Один из примеров — удаленный взлом кардиостимулятора. В критическом случае это может привести к массовым убийствам. 

❗️Методы решения этических проблем➡️

разработка стандартов и правил,

подготовка специалистов,

информирование пациентов.

❗️Разработка этических регламентов в медицине — задача чрезвычайной сложности.

С одной стороны, нужно обеспечить развитие инновационных технологий, способных повысить точность диагностики и доступность помощи, оптимизировать ресурсы. С другой — сохранить человеческое измерение медицины, где каждый пациент не просто объект анализа, а субъект с правами, страхами и ожиданиями.

 

BY Ирина Филатова




Share with your friend now:
group-telegram.com/ifilato/2216

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said. "There is a significant risk of insider threat or hacking of Telegram systems that could expose all of these chats to the Russian government," said Eva Galperin with the Electronic Frontier Foundation, which has called for Telegram to improve its privacy practices. Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content. "We're seeing really dramatic moves, and it's all really tied to Ukraine right now, and in a secondary way, in terms of interest rates," Octavio Marenzi, CEO of Opimas, told Yahoo Finance Live on Thursday. "This war in Ukraine is going to give the Fed the ammunition, the cover that it needs, to not raise interest rates too quickly. And I think Jay Powell is a very tepid sort of inflation fighter and he's not going to do as much as he needs to do to get that under control. And this seems like an excuse to kick the can further down the road still and not do too much too soon."
from us


Telegram Ирина Филатова
FROM American