Nếu dữ liệu là , nghĩa là, hậu quả từ không gian mẫu , xác suất điểm thực nghiệm là
cho . Ở đây là một nếu và khác 0. Nghĩa là, là tần số tương đối của trong chuỗi được quan sát. Các entropy của phân bố xác suất được đưa ra bởi xác suất điểm thực nghiệm là
n X p ( x ) = 1xn= x1... xnnXx∈Xδx(xi)xi=x p (x)xH( p )=-Σx∈ X p (x)log p (x)=-∑x∈ X 1
p^( x ) = 1n| {tôi∣ xTôi= x } | = 1nΣi = 1nδx( xTôi)
x ∈ Xδx( xTôi)xTôi= xp^( x )xΣx∈ X δx(xi)log p (x)=log p (xi). H( p )=-1H( p^) = - Σx ∈ Xp^( x ) nhật kýp^( X ) = - Σx ∈ X1nΣi = 1nδx( xTôi) đăng nhậpp^( x ) = - 1nΣi = 1nđăng nhậpp^( xTôi) .
Nhận dạng sau theo sau bằng cách hoán đổi hai khoản tiền và lưu ý rằng
Từ đó, chúng ta thấy rằng
với và sử dụng thuật ngữ từ câu hỏi này là entropy theo kinh nghiệm của
phân phối xác suất theo kinh nghiệm . Như được chỉ ra bởi @cardinal trong một nhận xét,
Σx ∈ Xδx( xTôi) đăng nhậpp^( x ) = nhật kýp^( xTôi) .
p (xn)=Π n i = 1 p (xi)-1H( p^) = - 1nđăng nhậpp^( xn)
p^( xn) = ∏ni = 1p^( xTôi)p- 1nđăng nhậpp ( xn)là entropy theo kinh nghiệm của một phân phối xác suất nhất định với xác suất điểm .
p