[Home] AI로 돌아가기

🔗 관련 문서: Wikipedia - Kullback–Leibler divergence

KLD (Kullback-Leibler Divergence)

KLD는 두 확률 분포 간의 차이를 측정하는 데 사용되는 정보 이론 기반의 수치로, AI 및 머신러닝에서 모델의 출력 분포가 참 분포와 얼마나 다른지를 정량적으로 나타낼 수 있다.

(1) 정의와 수식

Kullback-Leibler Divergence는 참 분포 \( P(x) \)와 모델 분포 \( Q(x) \) 사이의 정보 차이를 다음과 같이 정의한다:

\[ D_{KL}(P || Q) = \sum_x P(x) \log \left( \frac{P(x)}{Q(x)} \right) \]

연속 분포의 경우 다음과 같이 적분 형태로 표현된다:

\[ D_{KL}(P || Q) = \int P(x) \log \left( \frac{P(x)}{Q(x)} \right) dx \]

(2) 특징

(3) 주요 활용 사례

(4) 직관적 해석

KL Divergence는 참 분포 \( P \)를 따르는 데이터를 모델 분포 \( Q \)로 설명할 때 발생하는 정보의 낭비 혹은 비효율성을 정량적으로 나타낸다. 즉, Q가 P를 얼마나 잘 근사하지 못하는지를 알려주는 지표이다.