📈 KL(Kullback-Leibler) Divergence
이전 포스팅을 통해 불확실성
을 측정하기 위한 엔트로피
에 대한 개념을 알아봤습니다.
KL-Divergence
는 교차 엔트로피
를 이용하여 확률분포
의 차이를 계산하는 함수로
근사하는 다른 분포
를 샘플링 시 발생할 수 있는 정보 엔트로피
의 차이를 계산합니다.
1분 미만
이전 포스팅을 통해 불확실성
을 측정하기 위한 엔트로피
에 대한 개념을 알아봤습니다.
KL-Divergence
는 교차 엔트로피
를 이용하여 확률분포
의 차이를 계산하는 함수로
근사하는 다른 분포
를 샘플링 시 발생할 수 있는 정보 엔트로피
의 차이를 계산합니다.