DSPROGLIB Telegram 6303
💎 Фишка инструмента: SHAP — интерпретируемость ML-моделей

SHAP (SHapley Additive exPlanations) — это мощный инструмент для объяснения предсказаний моделей машинного обучения. Он основан на значениях Шепли из теории игр и позволяет разобрать вклад каждого признака в итоговый результат модели.

📍 Что делает SHAP:
Объясняет любой ML-модели, от XGBoost и LightGBM до нейросетей и трансформеров
Выявляет ключевые признаки, влияющие на предсказания
Создаёт наглядные визуализации, такие как водопадные графики, force plots, scatter plots и beeswarm-графики
Работает с деревьями решений, нейросетями и линейными моделями

📍 Ключевые приёмы:
Waterfall plot — детальный разбор влияния признаков
Beeswarm plot — топ-важных признаков по всей выборке
Dependence plot — анализ взаимодействий признаков

📍 Пример использования

1⃣ Установка:
pip install shap


2⃣ Простая демонстрация для XGBoost:
import xgboost
import shap

# Обучаем модель
X, y = shap.datasets.california()
model = xgboost.XGBRegressor().fit(X, y)

# Создаём объяснитель SHAP
explainer = shap.Explainer(model)
shap_values = explainer(X)

# Визуализируем вклад признаков в предсказание
shap.plots.waterfall(shap_values[0])
shap.plots.beeswarm(shap_values)


🔗 Подробнее в репозитории: SHAP на GitHub

Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥21



tgoop.com/dsproglib/6303
Create:
Last Update:

💎 Фишка инструмента: SHAP — интерпретируемость ML-моделей

SHAP (SHapley Additive exPlanations) — это мощный инструмент для объяснения предсказаний моделей машинного обучения. Он основан на значениях Шепли из теории игр и позволяет разобрать вклад каждого признака в итоговый результат модели.

📍 Что делает SHAP:
Объясняет любой ML-модели, от XGBoost и LightGBM до нейросетей и трансформеров
Выявляет ключевые признаки, влияющие на предсказания
Создаёт наглядные визуализации, такие как водопадные графики, force plots, scatter plots и beeswarm-графики
Работает с деревьями решений, нейросетями и линейными моделями

📍 Ключевые приёмы:
Waterfall plot — детальный разбор влияния признаков
Beeswarm plot — топ-важных признаков по всей выборке
Dependence plot — анализ взаимодействий признаков

📍 Пример использования

1⃣ Установка:

pip install shap


2⃣ Простая демонстрация для XGBoost:
import xgboost
import shap

# Обучаем модель
X, y = shap.datasets.california()
model = xgboost.XGBRegressor().fit(X, y)

# Создаём объяснитель SHAP
explainer = shap.Explainer(model)
shap_values = explainer(X)

# Визуализируем вклад признаков в предсказание
shap.plots.waterfall(shap_values[0])
shap.plots.beeswarm(shap_values)


🔗 Подробнее в репозитории: SHAP на GitHub

Библиотека дата-сайентиста #буст

BY Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение




Share with your friend now:
tgoop.com/dsproglib/6303

View MORE
Open in Telegram


Telegram News

Date: |

Telegram has announced a number of measures aiming to tackle the spread of disinformation through its platform in Brazil. These features are part of an agreement between the platform and the country's authorities ahead of the elections in October. The court said the defendant had also incited people to commit public nuisance, with messages calling on them to take part in rallies and demonstrations including at Hong Kong International Airport, to block roads and to paralyse the public transportation system. Various forms of protest promoted on the messaging platform included general strikes, lunchtime protests and silent sit-ins. Clear With the “Bear Market Screaming Therapy Group,” we’ve now transcended language. Invite up to 200 users from your contacts to join your channel
from us


Telegram Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
FROM American