Giả sử ta có hàm số sao cho ∀ x ∈ Z n 2 vàflà một phân phối, tức là,Σx∈Z n 2 f(x)=1.
Entropy Shannon của được định nghĩa như sau: H ( f ) = - ∑ x ∈ Z n 2 f ( x ) log ( f ( x ) ) .
Hãy là một số không đổi. Giả sử chúng ta có được một ε phiên bản -noisy của f ( x ) , tức là chúng ta có được một chức năng ~ f : Z n 2 → R như vậy | ˜ f ( x ) - f ( x ) | < Ε cho mỗi x ∈ Z n 2 . Ảnh hưởng của tiếng ồn lên entropy là gì? Nghĩa là, chúng ta có thể bị ràng buộc H ( ~ f ) bởi một chức năng "hợp lý" của εvà , chẳng hạn như: ( 1 - ϵ ) H ( f ) < H ( ˜ f ) < ( 1 + ϵ ) H ( f ) , hoặc thậm chí, ( 1 - ϵ c n ) d H ( f ) < H ( ˜ f ) < ( 1 + ϵ c n )
Chỉnh sửa: Cố gắng cảm nhận về ảnh hưởng của tiếng ồn đối với entropy của Shannon, bất kỳ phụ gia "hợp lý" nào bị ràng buộc vào cũng sẽ rất thú vị.