객체 탐지(Object Detection) 성능지표 - mAP
YOLO, Faster R-CNN 같은 객체 탐지 모델의 성능을 비교할 때 가장 많이 쓰는 지표가 바로 mAP(Mean Average Precision) 입니다.
이 글에서는 mAP이 무엇이고, 왜 중요한지, 그리고 어떻게 계산되는지 아주 쉽게 풀어 설명하겠습니다.
1. mAP란 무엇인가?
mAP (mean Average Precision) 은 객체 탐지 모델이
- 얼마나 정확하게(Precision)
- 얼마나 놓치지 않고(Recall)
- 정답 위치와 얼마나 잘 겹치게(IoU)
탐지를 했는지를 종합적으로 평가하는 지표입니다.
쉽게 말해,
모든 클래스에 대해 탐지 성능(AP)을 계산한 뒤 평균낸 값.
즉, 모델이 전체적으로 얼마나 잘 탐지하는지를 나타내는 최종 점수입니다.
2. mAP 계산 흐름 (전체 구조)
mAP 계산은 다음 5단계로 이뤄집니다:
- IoU 기준으로 TP/FP 결정
- Precision–Recall 곡선(PR Curve) 계산
- PR Curve 아래 면적(AP) 계산
- 각 클래스별 AP 계산
- AP를 클래스별로 평균 = mAP
즉, mAP = (AP1 + AP2 + ... + AP_N) / N
3. IoU(Intersection over Union) — 겹치는 정도
mAP에서 중요한 첫 단계는 예측 박스가 정답을 얼마나 정확히 맞췄는지 판단하는 것.
이를 IoU라고 합니다.
예:
- IoU 0.85 → 정답 박스와 거의 동일
- IoU 0.20 → 엉뚱한 위치
임계값(IoU threshold) 을 정하고
IoU ≥ 임계값 → True Positive
IoU < 임계값 → False Positive
로 나눕니다.
4. Precision, Recall 관계
▶ Precision (정밀도)
예측한 것 중에서 얼마나 맞췄나
▶ Recall (재현율)
정답 중에서 얼마나 탐지했나
5. AP(Average Precision) — PR 곡선의 면적
Precision–Recall 곡선을 그리면 아래처럼 생깁니다:
- Recall이 올라갈수록 Precision은 대체로 떨어짐
- 모델의 탐지 threshold를 조정하며 곡선이 형성됨
그리고 이 PR curve 아래 면적을 AP라고 합니다.
곡선이 위쪽으로 볼록하고 넓게 차지할수록 AP는 1에 가까워집니다.
6. mAP@IoU 기준들
mAP은 IoU 임계값을 어떻게 정하느냐에 따라 종류가 나뉩니다.
1) mAP@0.5 (기본 mAP)
IoU ≥ 0.5 기준으로만 평가.
YOLO v3, v4 논문에서 사용.
2) mAP@0.75
IoU ≥ 0.75 (더 엄격한 기준)
3) mAP@[0.5:0.95] (COCO mAP)
0.5~0.95까지 0.05 간격으로 10개 기준을 모두 평가해 평균.
가장 엄격하고 신뢰도 높은 지표.
YOLOv8, DETR 등 최신 모델들이 이 기준을 사용.
7. 예제로 보는 mAP 개념
예를 들어 "사람", "강아지", "자전거" 3개 클래스를 탐지한다고 하면:
| 사람 | 0.76 |
| 강아지 | 0.68 |
| 자전거 | 0.84 |
그러면
즉, 모델이 전체적으로 76% 성능을 낸다는 의미입니다.
8. mAP이 중요한 이유
- 여러 클래스가 있을 때 균형 잡힌 성능 평가 가능
- Recall/Precision 사이의 trade-off를 반영
- 단순 정확도(Accuracy)로는 설명할 수 없는 위치 정보까지 포함
- 다양한 IoU 기준으로 세밀한 평가 가능
특히 COCO 기준(mAP@[0.5:0.95]) 은
모델의 전반적·실질적 탐지 능력을 가장 잘 보여주는 지표로 인정받습니다.
한 문장 정리
mAP = 각 클래스의 Average Precision(AP)을 모두 평균낸 탐지 모델의 종합 성능 점수.
높을수록 정확하고 안정적인 탐지가 가능하다.