[Home] AI로 돌아가기
🔗 관련 문서:
Wikipedia - Evaluation Metrics
Metric - 메트릭 (평가 지표)
메트릭(Metric)은 머신러닝 모델의 성능을 정량적으로 측정하는 기준이다.
문제 유형에 따라 다양한 평가 지표가 존재하며, 분류(Classification)와 회귀(Regression)로 나뉜다.
(1) 분류 문제 평가 지표
- 정확도 (Accuracy): 전체 샘플 중 정답 비율
- 정밀도 (Precision): 양성 예측 중 실제 양성 비율
- 재현율 (Recall): 실제 양성 중 올바른 예측 비율
- F1 점수 (F1 Score): 정밀도와 재현율의 조화 평균
\[
F1 = 2 \times \frac{Precision \times Recall}{Precision + Recall}
\]
- ROC & AUC: 모델의 분류 능력을 시각화하고,
면적(AUC)으로 정량화
(2) 회귀 문제 평가 지표
- 평균 제곱 오차 (MSE):
\[
MSE = \frac{1}{n} \sum (y_{\text{true}} - y_{\text{pred}})^2
\]
오차를 제곱하여 평균화
- 평균 절대 오차 (MAE):
\[
MAE = \frac{1}{n} \sum |y_{\text{true}} - y_{\text{pred}}|
\]
절대값 기반의 직관적인 오차 측정
- 결정 계수 (R² Score): 모델이 데이터의 분산을 얼마나 설명하는지 지표화
\[
R^2 = 1 - \frac{\sum (y_{\text{true}} - y_{\text{pred}})^2}{\sum (y_{\text{true}} - \bar{y})^2}
\]
📊 예시 시각화
그림 1. Precision vs Recall의 시각적 관계
출처: Wikimedia Commons