실제 분류 | |||
True | False | ||
예측 분류 | True | TP (True Positive) |
FP (False Positive) TYPE Ⅰ ERROR |
False | FN (Flase Negative) TYPE Ⅱ ERROR |
TN (True Negative) |
해석) True Poisitive : 예측 결과 긍정이고(Positive) 실제와 일치한다.(True)
암의 질병을 예측하는 예시라면
TP : 분류기가 결과를 병에 걸렸다고 예측한 경우 실제 결과도 병에 걸린게 맞는 경우
TN : 분류기가 결과를 병에 걸리지 않았다고 예측한 경우 실제 결과도 병에 걸리지 않은 경우
FP (제 1종 오류): 환자가 병에 걸리지도 않았는데 병에 걸렸다고 해 버린 경우
FN (제 2종 오류): 환자가 건강하다고 예측하였는데 병에 걸린 경우
● 분류 모델 평가 지표
Accuracy (정확도) = (TP + TN) / (TP + TN + FP + FN)
Precision (정밀도) = TP / Total True Predictions = (TP) / (TP + FP)
모델이 예측한 값이 참일 경우 실제로 얼마나 정확했는가 - 예측값 대비 실제 (첫번째 행)
Recall (재현성) = TP / Actual True = TP ( TP + FN )
실제 값이 있다면 모델이 정확히 예측한 수는 얼마나 될가 - 실제값 대비 예측 (첫번째 열)
세 지표를 모두 확인해야 좋은 모델을 평가할 수 있습니다.
★ F1 스코어
정밀도와 재현율의 조합으로 조화 평균을 구하는 방식입니다.
하나의 측정치를 이용하여 모델의 수행 정밀도와 재현율을 평가할 수 있다.
불균형한 데이터의 경우(많은 True negative 예시 가령 건강한 환자들이 많은 경우) 정확도 보다 F1 스코어를 평가하는 것이 정확하다.
F1-Score = 2 * (Precision * Recall ) / ( Precision + Recall ) 혹은 2 * TP / {(2 * TP) + 1종 오류 + 2종 오류}
'Data Analytics with python > [Machine Learning ]' 카테고리의 다른 글
[연관 규칙 데이터 정제] 데이터를 정제하여 apriori 알고리즘을 수행하기 위한 준비 (0) | 2023.02.03 |
---|---|
[연관 규칙 분석] Association_rules 분석 (0) | 2023.02.03 |
[회귀 구현] data : california_housing (0) | 2023.02.02 |
[학습 01] 주택 가격 예측하기 (1) | 2023.02.01 |
[이미지 분할] Image segmentation (1) | 2023.01.26 |
댓글