Entropy của một phân phối ồn ào


9

Giả sử ta có hàm số sao cho x Z n 2f:Z2nRflà một phân phối, tức là,ΣxZ n 2 f(x)=1.

xZ2nf(x){12n,22n,,2n2n},
fxZ2nf(x)=1

Entropy Shannon của được định nghĩa như sau: H ( f ) = - x Z n 2 f ( x ) log ( f ( x ) ) .f

H(f)=xZ2nf(x)log(f(x)).

Hãy là một số không đổi. Giả sử chúng ta có được một ε phiên bản -noisy của f ( x ) , tức là chúng ta có được một chức năng ~ f : Z n 2R như vậy | ˜ f ( x ) - f ( x ) | < Ε cho mỗi x Z n 2 . Ảnh hưởng của tiếng ồn lên entropy là gì? Nghĩa là, chúng ta có thể bị ràng buộc H ( ~ f ) bởi một chức năng "hợp lý" của εϵϵf(x)f~:Z2nR|f~(x)f(x)|<ϵxZ2nH(f~)ϵ , chẳng hạn như: ( 1 - ϵ ) H ( f ) < H ( ˜ f ) < ( 1 + ϵ ) H ( f ) , hoặc thậm chí, ( 1 - ϵ c n ) d H ( f ) < H ( ˜ f ) < ( 1 + ϵ c n )H(f)

(1ϵ)H(f)<H(f~)<(1+ϵ)H(f),
đối với một số hằng số c , d .
(1ϵcn)dH(f)<H(f~)<(1+ϵcn)dH(f),
c,d

Chỉnh sửa: Cố gắng cảm nhận về ảnh hưởng của tiếng ồn đối với entropy của Shannon, bất kỳ phụ gia "hợp lý" nào bị ràng buộc vào cũng sẽ rất thú vị.H(f~)

Câu trả lời:


8

fS2δnf~δS

ff~(1δ)2δnH(f)=δnH(f~)(1δ+δ2)n(1δ)2nδ

δ=log(1/ε)nεn2log(1/ε)


1
ϵn

Cảm ơn vì sự đúng đắn của bạn. Tôi không biết câu trả lời cho ràng buộc phụ gia là gì.
Hoặc Meir

0

@DanaMoshkovitz - Trường hợp ràng buộc phụ gia thực sự rất phù hợp. Tôi sẽ thêm nó vào câu hỏi. Cảm ơn đã chỉ ra điều đó!

H(f)0H(f)0
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.