DS_INTERVIEW_LIB Telegram 514
Как использовать матрицу ошибок (confusion matrix), чтобы определить производительность модели?

В задаче классификации принято называть положительным класс, который представляет для нас интерес, и отрицательным класс, который нас не интересует (условно). С учётом этого можем описать для каждого объекта в выборке четыре возможных ситуации:

▪️Модель предсказала положительную метку и угадала. Такие объекты будут относиться к true positive (TP).
▪️Модель предсказала положительную метку и ошиблась. Такие объекты будут относиться к false positive (FP).
▪️Модель предсказала отрицательную метку и угадала. Такие объекты будут относиться к true negative (TN).
▪️Модель предсказала отрицательную метку и ошиблась. Такие объекты будут относиться к false negative (FN).

Все эти четыре группы изображают в виде таблицы, которую называют confusion matrix (матрицей ошибок). Она помогает рассчитать следующие метрики, которые могут нам что-то сказать о производительности модели:

▪️Accuracy (Точность): (TP + TN) / (TP + TN + FP + FN) — общая точность модели.
▪️Precision (Точность): TP / (TP + FP) — доля правильно предсказанных положительных объектов среди всех объектов, предсказанных положительным классом.
▪️Recall (Полнота): TP / (TP + FN) — доля правильно найденных положительных объектов среди всех объектов положительного класса.
▪️F1-score: 2 * (Precision * Recall) / (Precision + Recall) — гармоническое среднее между Precision и Recall.

#машинное_обучение
👍14



tgoop.com/ds_interview_lib/514
Create:
Last Update:

Как использовать матрицу ошибок (confusion matrix), чтобы определить производительность модели?

В задаче классификации принято называть положительным класс, который представляет для нас интерес, и отрицательным класс, который нас не интересует (условно). С учётом этого можем описать для каждого объекта в выборке четыре возможных ситуации:

▪️Модель предсказала положительную метку и угадала. Такие объекты будут относиться к true positive (TP).
▪️Модель предсказала положительную метку и ошиблась. Такие объекты будут относиться к false positive (FP).
▪️Модель предсказала отрицательную метку и угадала. Такие объекты будут относиться к true negative (TN).
▪️Модель предсказала отрицательную метку и ошиблась. Такие объекты будут относиться к false negative (FN).

Все эти четыре группы изображают в виде таблицы, которую называют confusion matrix (матрицей ошибок). Она помогает рассчитать следующие метрики, которые могут нам что-то сказать о производительности модели:

▪️Accuracy (Точность): (TP + TN) / (TP + TN + FP + FN) — общая точность модели.
▪️Precision (Точность): TP / (TP + FP) — доля правильно предсказанных положительных объектов среди всех объектов, предсказанных положительным классом.
▪️Recall (Полнота): TP / (TP + FN) — доля правильно найденных положительных объектов среди всех объектов положительного класса.
▪️F1-score: 2 * (Precision * Recall) / (Precision + Recall) — гармоническое среднее между Precision и Recall.

#машинное_обучение

BY Библиотека собеса по Data Science | вопросы с собеседований


Share with your friend now:
tgoop.com/ds_interview_lib/514

View MORE
Open in Telegram


Telegram News

Date: |

Administrators The SUCK Channel on Telegram, with a message saying some content has been removed by the police. Photo: Telegram screenshot. In handing down the sentence yesterday, deputy judge Peter Hui Shiu-keung of the district court said that even if Ng did not post the messages, he cannot shirk responsibility as the owner and administrator of such a big group for allowing these messages that incite illegal behaviors to exist. Write your hashtags in the language of your target audience. While some crypto traders move toward screaming as a coping mechanism, many mental health experts have argued that “scream therapy” is pseudoscience. Scientific research or no, it obviously feels good.
from us


Telegram Библиотека собеса по Data Science | вопросы с собеседований
FROM American