🔗 관련 문서: Wikipedia - Kullback–Leibler divergence
KLD는 두 확률 분포 간의 차이를 측정하는 데 사용되는 정보 이론 기반의 수치로, AI 및 머신러닝에서 모델의 출력 분포가 참 분포와 얼마나 다른지를 정량적으로 나타낼 수 있다.
Kullback-Leibler Divergence는 참 분포 \( P(x) \)와 모델 분포 \( Q(x) \) 사이의 정보 차이를 다음과 같이 정의한다:
\[ D_{KL}(P || Q) = \sum_x P(x) \log \left( \frac{P(x)}{Q(x)} \right) \]
연속 분포의 경우 다음과 같이 적분 형태로 표현된다:
\[ D_{KL}(P || Q) = \int P(x) \log \left( \frac{P(x)}{Q(x)} \right) dx \]
KL Divergence는 참 분포 \( P \)를 따르는 데이터를 모델 분포 \( Q \)로 설명할 때 발생하는 정보의 낭비 혹은 비효율성을 정량적으로 나타낸다. 즉, Q가 P를 얼마나 잘 근사하지 못하는지를 알려주는 지표이다.