tgoop.com/Linuxor/2564
Create:
Last Update:
Last Update:
توی ماشین لرنینگ برای اینکه بفهمیم هرکدوم از ویژگی ها چقدر توی خروجی تاثیر داشته راه های مختلفی وجود داره با SHAP میتونید راحت این کارو انجام بدید، SHAP یه روش برای توضیح خروجی مدلهای یادگیری ماشینه که از مفهوم Shapley value در نظریه بازیها الهام گرفته. توی نظریه بازی، Shapley value منصفانه مشخص میکنه هر بازیکن چقدر در نتیجهی تیم سهم داشته؛ SHAP همین ایده رو برای ویژگیهای داده به کار میگیره. یعنی برای هر پیشبینی مشخص، حساب میکنه هر فیچر (مثل سن، درآمد یا سابقه خرید) چه میزان در نتیجه نهایی مدل نقش مثبت یا منفی داشته. اینطوری میشه دقیق فهمید که چرا مدل به یه تصمیم خاص رسیده.
shap.readthedocs.io
@Linuxor
BY Linuxor ?

Share with your friend now:
tgoop.com/Linuxor/2564