Во многих задачах важна интерпретируемость ML-моделей - представление процесса принятия решения в понятной человеку форме.
В 2017 году вышла статья про подход к интерпретации с помощью Shapley values, а следом появилась быстро ставшая популярной open-sourse библиотека SHAP (на картинках примеры ее применения). Shapley values - термин из теории игр, численные оценки вклада каждого игрока в достижение общей цели. В машинном обучении игроками можно считать наличие отдельных признаков, а результатом игры - ответ модели на конкретном объекте.
Метод SHAP можно применить к любой модели машинного обучения, поскольку он model-agnostic метод - никак не использует информацию о том, как устроена модель "изнутри".
В 2017 году вышла статья про подход к интерпретации с помощью Shapley values, а следом появилась быстро ставшая популярной open-sourse библиотека SHAP (на картинках примеры ее применения). Shapley values - термин из теории игр, численные оценки вклада каждого игрока в достижение общей цели. В машинном обучении игроками можно считать наличие отдельных признаков, а результатом игры - ответ модели на конкретном объекте.
Метод SHAP можно применить к любой модели машинного обучения, поскольку он model-agnostic метод - никак не использует информацию о том, как устроена модель "изнутри".
🔥13❤4👍2🕊1
tgoop.com/everything_is_eventual/324
Create:
Last Update:
Last Update:
Во многих задачах важна интерпретируемость ML-моделей - представление процесса принятия решения в понятной человеку форме.
В 2017 году вышла статья про подход к интерпретации с помощью Shapley values, а следом появилась быстро ставшая популярной open-sourse библиотека SHAP (на картинках примеры ее применения). Shapley values - термин из теории игр, численные оценки вклада каждого игрока в достижение общей цели. В машинном обучении игроками можно считать наличие отдельных признаков, а результатом игры - ответ модели на конкретном объекте.
Метод SHAP можно применить к любой модели машинного обучения, поскольку он model-agnostic метод - никак не использует информацию о том, как устроена модель "изнутри".
В 2017 году вышла статья про подход к интерпретации с помощью Shapley values, а следом появилась быстро ставшая популярной open-sourse библиотека SHAP (на картинках примеры ее применения). Shapley values - термин из теории игр, численные оценки вклада каждого игрока в достижение общей цели. В машинном обучении игроками можно считать наличие отдельных признаков, а результатом игры - ответ модели на конкретном объекте.
Метод SHAP можно применить к любой модели машинного обучения, поскольку он model-agnostic метод - никак не использует информацию о том, как устроена модель "изнутри".
BY всё предельно


Share with your friend now:
tgoop.com/everything_is_eventual/324