Telegram Group & Telegram Channel
#interpretable_ml

Давайте начнем большую тему интерпретируемого машинного обучения. Начнем с базовых понятий, постепенно спускаясь в глубины (ну или поднимаясь на вершины, этот выбор оставлю на вкус читателя). Я побуду вашим Овидием в этом интересном (надеюсь) путешествии.

Итак, начнем с того, что вообще такое интерпретируемое машинное обучение.

Интерпретируемая модель машинного обучения - это такая модель, результаты и выводы которой может предсказать и объяснить эксперт.

Соответственно, обычно модели любят делить на две крайности одной сущности: модели черного и белого ящика. В черном ящике мы совсем ничего не понимаем, но видим результаты модели. В белом ящике мы видим весь процесс и можем в деталях понять, почему был получен именно такой вывод.

Когда нам нужна интерпретируемость?

Собственно, в тех случаях, когда нам нужно тем или иным образом проверять или использовать результаты и выводы нашей модели. Это нужно в следующих случаях:
1. Нам хочется получать из результатов новые знания (то есть, в научных целях нам лучше бы понимать, как конкретный инструмент получает те результаты, которые мы видим);
2. Мы хотим быть уверены, что модель принимает "честные" решения, которые не дискриминируют никакие группы населения;
3. Нам нужно знать, что чувствительная информация надежно защищена;
4. Мы хотим понимать, робастна ли модель и если нет, то что приводит к неустойчивости ее поведения;
5. Мы хотим быть уверены, что модель выучила только причинно-следственные отношения, а не ложные корреляции;
6. Мы хотели бы видеть больше доверия от пользователей модели. Обычно, человеку гораздо проще доверять тому, чью логику он может понять.

А когда интерпретируемость не особо важна?

1. Когда результаты модели не особо важны (нет влияния на чье-то здоровье или благополучие);
2. Когда область изучена вдоль и поперек. И мы точно знаем, что вполне себе можем делегировать принятие решения черному ящику;
3. Когда мы не хотим, чтобы пользователи могли научиться "обманывать систему" (например, если вы выдаете кредиты, то вам не очень хочется, чтобы фродеры знали, какие признаки помогают получше прикинуться честным заемщиком).



group-telegram.com/artificial_stupid/320
Create:
Last Update:

#interpretable_ml

Давайте начнем большую тему интерпретируемого машинного обучения. Начнем с базовых понятий, постепенно спускаясь в глубины (ну или поднимаясь на вершины, этот выбор оставлю на вкус читателя). Я побуду вашим Овидием в этом интересном (надеюсь) путешествии.

Итак, начнем с того, что вообще такое интерпретируемое машинное обучение.

Интерпретируемая модель машинного обучения - это такая модель, результаты и выводы которой может предсказать и объяснить эксперт.

Соответственно, обычно модели любят делить на две крайности одной сущности: модели черного и белого ящика. В черном ящике мы совсем ничего не понимаем, но видим результаты модели. В белом ящике мы видим весь процесс и можем в деталях понять, почему был получен именно такой вывод.

Когда нам нужна интерпретируемость?

Собственно, в тех случаях, когда нам нужно тем или иным образом проверять или использовать результаты и выводы нашей модели. Это нужно в следующих случаях:
1. Нам хочется получать из результатов новые знания (то есть, в научных целях нам лучше бы понимать, как конкретный инструмент получает те результаты, которые мы видим);
2. Мы хотим быть уверены, что модель принимает "честные" решения, которые не дискриминируют никакие группы населения;
3. Нам нужно знать, что чувствительная информация надежно защищена;
4. Мы хотим понимать, робастна ли модель и если нет, то что приводит к неустойчивости ее поведения;
5. Мы хотим быть уверены, что модель выучила только причинно-следственные отношения, а не ложные корреляции;
6. Мы хотели бы видеть больше доверия от пользователей модели. Обычно, человеку гораздо проще доверять тому, чью логику он может понять.

А когда интерпретируемость не особо важна?

1. Когда результаты модели не особо важны (нет влияния на чье-то здоровье или благополучие);
2. Когда область изучена вдоль и поперек. И мы точно знаем, что вполне себе можем делегировать принятие решения черному ящику;
3. Когда мы не хотим, чтобы пользователи могли научиться "обманывать систему" (например, если вы выдаете кредиты, то вам не очень хочется, чтобы фродеры знали, какие признаки помогают получше прикинуться честным заемщиком).

BY Artificial stupidity


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/artificial_stupid/320

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Like the bombing of the maternity ward in Mariupol," he said, "Even before it hits the news, you see the videos on the Telegram channels." A Russian Telegram channel with over 700,000 followers is spreading disinformation about Russia's invasion of Ukraine under the guise of providing "objective information" and fact-checking fake news. Its influence extends beyond the platform, with major Russian publications, government officials, and journalists citing the page's posts. Again, in contrast to Facebook, Google and Twitter, Telegram's founder Pavel Durov runs his company in relative secrecy from Dubai. Recently, Durav wrote on his Telegram channel that users' right to privacy, in light of the war in Ukraine, is "sacred, now more than ever." Russian President Vladimir Putin launched Russia's invasion of Ukraine in the early-morning hours of February 24, targeting several key cities with military strikes.
from us


Telegram Artificial stupidity
FROM American