본문 바로가기
Data Analytics with python/[Machine Learning ]

[분류 모델 평가 지표] Confusion Matrix

by 보끔밥0130 2023. 1. 24.
728x90
    실제 분류
    True False
예측 분류 True TP
(True Positive)
FP
(False Positive)
TYPE Ⅰ ERROR
False FN
(Flase Negative)
TYPE Ⅱ ERROR
TN
(True Negative)

해석) True Poisitive : 예측 결과 긍정이고(Positive) 실제와 일치한다.(True)

 

암의 질병을 예측하는 예시라면

TP : 분류기가 결과를 병에 걸렸다고 예측한 경우 실제 결과도 병에 걸린게 맞는 경우

TN : 분류기가 결과를 병에 걸리지 않았다고 예측한 경우 실제 결과도 병에 걸리지 않은 경우

FP (제 1종 오류): 환자가 병에 걸리지도 않았는데 병에 걸렸다고 해 버린 경우

FN (제 2종 오류): 환자가 건강하다고 예측하였는데 병에 걸린 경우 

 

● 분류 모델 평가 지표

Accuracy (정확도) =  (TP + TN) / (TP + TN + FP + FN)

 

Precision (정밀도) = TP / Total True Predictions = (TP) / (TP + FP)

모델이 예측한 값이 참일 경우 실제로 얼마나 정확했는가 - 예측값 대비 실제 (첫번째 행)

 

Recall (재현성) =  TP / Actual True = TP ( TP + FN )

 실제 값이 있다면 모델이 정확히 예측한 수는 얼마나 될가 - 실제값 대비 예측 (첫번째 열)

 

세 지표를 모두 확인해야 좋은 모델을 평가할 수 있습니다.

 

★ F1 스코어

정밀도와 재현율의 조합으로 조화 평균을 구하는 방식입니다.

하나의 측정치를 이용하여 모델의 수행 정밀도와 재현율을 평가할 수 있다.

불균형한 데이터의 경우(많은 True negative 예시 가령 건강한 환자들이 많은 경우) 정확도 보다 F1 스코어를 평가하는 것이 정확하다.

 

F1-Score = 2 * (Precision * Recall ) / ( Precision + Recall  )  혹은 2 * TP / {(2 * TP) + 1종 오류 + 2종 오류}

 

728x90

댓글