tgoop.com/jdata_blog/322
Last Update:
Привет, друзья!
Мы с вами обсуждали значения Шепли пару постов назад. В исследованиях и на практике SHAP один из наиболее популярных методов интерпретации. Часто о нём говорят как методе из теории игр, и по определению, значения Шепли вычисляются по оценке вклада признака во все возможные "коалиции" (подмножества признаков).
Так, если у нас есть N признаков, нам необходимо перебрать 2^N комбинаций для оценки вклада каждого признака полностью. На практике этого не делается — применяется аппроксимация.
Отсюда возникают вопросы:
- достаточно ли такого нам весьма грубого вычисления (особенно, если у нас картинка, которую хотелось бы оценить максимально детально)?
- насколько значения Шепли случайны и основаны на данных?
Мне не хотелось оставлять эти вопросы неотвеченными, и я провела время с изучением литературы. Так родился пост на Хабр:
Практическая устойчивость значений Шепли в интерпретации моделей ИИ
В нём ответила на них!
И приглашаю вас к чтению :)
BY Data Blog

Share with your friend now:
tgoop.com/jdata_blog/322