Telegram Group & Telegram Channel
#interpretable_ml

PFI (permutation feature importance). Что это такое и как работает?

В PFI есть слово permuatation. Оно, собственно, и определяет, что мы будем делать. Давайте для каждого признака будем "перемешивать" значения и смотреть, насколько изменилась наша ошибка предсказаний. Получаем весьма простой модельно-агностический (независимый от реализации конкретного алгоритма обучения) метод.

Плюсы метода:
1. Легко интерпретировать - мы понимаем, насколько изменяется качество модели при "разрушении" признака;
2. Можно сравнивать результаты между разными моделями;
3. Помимо важности самого признака, мы еще автоматически учитываем и важность взаимодействий между признаками (если мы "перемешали" признак, то мы "перемешали" и все взаимодействия между признаками);
4. Нам не нужно переобучать модель. То есть, мы не тратим время и вычислительные ресурсы на новые циклы обучения.

Минусы метода:
1. Мы привязаны к определению ошибки. То есть, важность признака зависима от той метрики, ухудшение которой мы мониторим;
2. Нужно знать реальные таргеты. Если у нас только модель и неразмеченные данные - то мы не можем вычислить важность признаков;
3. Учитывая случайность перестановок, наши результаты могут меняться от запуска к запуску (причем, весьма сильно);
4. У нас может возникать смещение в наших оценках из-за нереалистичных точек данных. Например, если мы случайно пересортируем рост, но оставим вес, то может получиться точка данных с ростом 185 см и весом 10 кг (что невероятно);
5. Наличие коррелированных признаков может снижать важность группы признаков, т.к. общая "важность" может "расщепляться" между этими признаками.

В итоге, метод весьма неплохой, но со своими минусами (причем, достаточно важными минусами). Если хотите поиграть с методом, можете взять пример реализации из sklearn.



group-telegram.com/artificial_stupid/322
Create:
Last Update:

#interpretable_ml

PFI (permutation feature importance). Что это такое и как работает?

В PFI есть слово permuatation. Оно, собственно, и определяет, что мы будем делать. Давайте для каждого признака будем "перемешивать" значения и смотреть, насколько изменилась наша ошибка предсказаний. Получаем весьма простой модельно-агностический (независимый от реализации конкретного алгоритма обучения) метод.

Плюсы метода:
1. Легко интерпретировать - мы понимаем, насколько изменяется качество модели при "разрушении" признака;
2. Можно сравнивать результаты между разными моделями;
3. Помимо важности самого признака, мы еще автоматически учитываем и важность взаимодействий между признаками (если мы "перемешали" признак, то мы "перемешали" и все взаимодействия между признаками);
4. Нам не нужно переобучать модель. То есть, мы не тратим время и вычислительные ресурсы на новые циклы обучения.

Минусы метода:
1. Мы привязаны к определению ошибки. То есть, важность признака зависима от той метрики, ухудшение которой мы мониторим;
2. Нужно знать реальные таргеты. Если у нас только модель и неразмеченные данные - то мы не можем вычислить важность признаков;
3. Учитывая случайность перестановок, наши результаты могут меняться от запуска к запуску (причем, весьма сильно);
4. У нас может возникать смещение в наших оценках из-за нереалистичных точек данных. Например, если мы случайно пересортируем рост, но оставим вес, то может получиться точка данных с ростом 185 см и весом 10 кг (что невероятно);
5. Наличие коррелированных признаков может снижать важность группы признаков, т.к. общая "важность" может "расщепляться" между этими признаками.

В итоге, метод весьма неплохой, но со своими минусами (причем, достаточно важными минусами). Если хотите поиграть с методом, можете взять пример реализации из sklearn.

BY Artificial stupidity


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/artificial_stupid/322

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"This time we received the coordinates of enemy vehicles marked 'V' in Kyiv region," it added. "Like the bombing of the maternity ward in Mariupol," he said, "Even before it hits the news, you see the videos on the Telegram channels." "He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said. Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. "And that set off kind of a battle royale for control of the platform that Durov eventually lost," said Nathalie Maréchal of the Washington advocacy group Ranking Digital Rights.
from hk


Telegram Artificial stupidity
FROM American