AI,머신러닝/용어

정보량, 엔트로피

깨비아빠0 2023. 8. 16. 14:27
728x90
반응형

https://en.wikipedia.org/wiki/Information_content

 

Information content - Wikipedia

From Wikipedia, the free encyclopedia Basic quantity derived from the probability of a particular event occurring from a random variable In information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity

en.wikipedia.org

https://gaussian37.github.io/ml-concept-basic_information_theory/

 

기초 정보 이론 (Entropy, Cross Entropy, KL divergence 등)

gaussian37's blog

gaussian37.github.io

https://hyunw.kim/blog/2017/10/14/Entropy.html

 

초보를 위한 정보이론 안내서 - Entropy란 무엇일까

딥러닝을 공부하다 보면 KL-divergence, cross-entropy 등에서 entropy라는 용어를 자주 접하게 됩니다. 이번 글을 통해서 정보이론의 아버지라 불리는 Shannon이 주창한 기초 개념인 entropy를 정리해봅니다.

hyunw.kim

 

정보량 (Information Content)

정보량: 불확실함을 해소하기 위해 필요한 질문(정보)의 수, 또는, 어떤 Event가 발생하기 까지 필요한 시행의 수

 

예를 들어, 0과 1만 구분하는 전기 신호로 알파벳을 표현해야 한다면 다음 전략 사용 가능

  1. 알파벳이 앞쪽 절만(A~M)에 속하는지, 뒷쪽 절반(N~Z)에 속하는지 구분
  2. 반복해서 절반씩 구분

즉, 바이너리 서치와 같으며, $log_2(26)\approx4.7$이므로 최대 5번의 질문으로 알파벳을 표현할 수 있고, 정보량은 4.7이다.

 

식으로 표현하면,

$ I(x) := log_2(\cfrac{1}{Pr(x)}) $

 

좀 더 일반적으로 정리하면,

$ I(x) := -log_b[Pr(x)] $, b는 정보량의 단위

$b=2$인 경우의 정보량 단위를 shannon(Sh), 또는, bit라고 부름

 

엔트로피 (Entropy)

정보학에서의 엔트로피는 정보량의 기댓값을 뜻하며, 확률변수 X에 대해 다음과 같이 정의할 수 있다.

$\begin{align}
H(X) &= \sum\limits_{x}-p_X(x)logp_X(x) \\
&= \sum\limits_{x}p_X(x)I_X(x)
\end{align}$
  1. 엔트로피는 0~1 사이의 값을 가짐
  2. 데이터셋이 모두 하나의 클래스이면 0, 정확히 반반씩 두 클래스로 이뤄졌으면 1
반응형