SHAP(Shapley Additive Explanations)의 개념과 실제 예제
1. SHAP의 기본 개념
SHAP(SHapley Additive exPlanations)는 머신러닝 모델의 예측 결과를 설명하는 기법으로, 각 특성이 예측값에 얼마나 기여하는지를 분석하는 데 사용됩니다. SHAP 값은 게임 이론의 Shapley Value 개념을 기반으로 합니다.
2. 예제: 고객의 대출 승인 예측 모델
은행에서 고객의 대출 승인 여부를 예측하는 모델을 만들었다고 가정해 봅시다. 모델의 주요 특성(Feature)은 다음과 같습니다.
- 신용 점수 (Credit Score)
- 소득 (Income)
- 대출 금액 (Loan Amount)
- 고용 기간 (Employment Duration)
- 기존 부채 (Existing Debt)
3. SHAP 값 계산
기본 예측값(Baseline, \(E[f(x)]\))이 \(0.5\)이고, 각 특성이 예측값에 미치는 영향이 다음과 같다고 가정합니다.
특성 | 고객 데이터 | SHAP 값 | 영향 |
---|---|---|---|
신용 점수 | 750 | +0.15 | 승인 확률 증가 |
소득 | $50,000 | +0.10 | 승인 확률 증가 |
대출 금액 | $30,000 | -0.05 | 승인 확률 감소 |
고용 기간 | 5년 | +0.05 | 승인 확률 증가 |
기존 부채 | $10,000 | -0.03 | 승인 확률 감소 |
최종 예측값은 다음과 같이 계산됩니다.
\( 0.5 + 0.15 + 0.10 - 0.05 + 0.05 - 0.03 = 0.72 \)
4. 시각적 표현 (SHAP Force Plot)
아래 그래프는 각 특성이 예측값(0.72)에 미친 영향을 시각적으로 보여줍니다.

5. 결론
SHAP을 활용하면 모델이 특정 고객의 대출 승인 확률을 72%로 예측한 이유를 명확하게 설명할 수 있습니다.
이는 금융, 의료, 마케팅, 인사(HR) 등 다양한 분야에서 모델의 설명 가능성(Explainability)을 높이는 데 활용될 수 있습니다.