컴퓨터과학
[펌] Entropy 부터 KL-divergence 까지
홈카페주인
2023. 5. 10. 14:43
참고자료
https://hyunw.kim/blog/2017/10/14/Entropy.html
초보를 위한 정보이론 안내서 - Entropy란 무엇일까
딥러닝을 공부하다 보면 KL-divergence, cross-entropy 등에서 entropy라는 용어를 자주 접하게 됩니다. 이번 글을 통해서 정보이론의 아버지라 불리는 Shannon이 주창한 기초 개념인 entropy를 정리해봅니다.
hyunw.kim
https://hyunw.kim/blog/2017/10/26/Cross_Entropy.html
초보를 위한 정보이론 안내서 - Cross Entropy 파헤쳐보기
Cross entropy는 두 분포 사이에 존재하는 정보량을 나타내는 개념이다.라는 식의 설명을 너무 많이 들었습니다. 하지만 이 개념이 정확히 무엇인지는 잘 설명되지 않고 그냥 쓰이는 것 같습니다.
hyunw.kim
https://hyunw.kim/blog/2017/10/27/KL_divergence.html
초보를 위한 정보이론 안내서 - KL divergence 쉽게 보기
사실 KL divergence는 전혀 낯선 개념이 아니라 우리가 알고 있는 내용에 이미 들어있는 개념입니다. 두 확률분포 간의 차이를 나타내는 개념인 KL divergence가 어디서 나온 것인지 먼저 파악하고, 이
hyunw.kim
728x90