group-telegram.com/artificial_stupid/321
Last Update:
#interpretable_ml
Продолжаем говорить про интерпретируемое машинное обучение.
На этой неделе пройдемся по таксономии понятий в интерпретируемости моделей машинного обучения.
Внутренняя интерпретируемость и анализ после использования (Intrinsic or post hoc). В данном случае, мы либо пытаемся получить модель, которая сама объяснить свои действия и результаты, либо пытаемся после получения результатов научиться объяснять, почему получились именно такие результаты и выводы.
Результат метода интерпретации:
- Некий score для признака (например, importance);
- Визуализация зависимости для признака (например, partial dependence);
- Внутренние показатели модели (например, веса признаков);
- Data point (генерируем или ищем существующие точки в данных, чтобы объяснить, на что похож наш пример);
- Объяснимая модель (например, аппроксимация более сложной black box модели более простой, но интерпретируемой).
Модельно-специфическая или модельно-агностическая интерпретируемость (Model-specific or model-agnostic). Здесь речь про то, полагается ли метод на какие-то особенные свойства определенной модели машинного обучения, или подходит для использования с любыми моделями.
Локальная или глобальная интерпретируемость (Local or global). Мы можем интерпретировать модель в целом, или какие-то отдельные точки (или предсказания), а можем использовать и промежуточный вариант - какие-то поднаборы данных из всего датасета.
BY Artificial stupidity
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/artificial_stupid/321