Mối quan hệ giữa entropy và SNR


13

Nói chung, bất kỳ hình thức nào của enropy được định nghĩa là không chắc chắn hoặc ngẫu nhiên. Trong một môi trường ồn ào, với sự gia tăng tiếng ồn, tôi tin rằng entropy tăng vì chúng ta không chắc chắn hơn về nội dung thông tin của tín hiệu mong muốn. Mối quan hệ giữa entropy và SNR là gì? Khi tăng tín hiệu thành khẩu phần nhiễu, công suất nhiễu giảm nhưng điều này không có nghĩa là nội dung thông tin của tín hiệu tăng !! Nội dung thông tin có thể vẫn giữ nguyên, vì vậy điều đó có nghĩa là entropy không bị ảnh hưởng?

Câu trả lời:


7

Khi bạn nói rằng "nội dung thông tin có thể giữ nguyên", bạn có nghĩa là thông tin trong tổng tín hiệu hoặc thông tin của tín hiệu mong muốn? Hy vọng điều này sẽ trả lời cả hai trường hợp. Tôi biết Shannon entropy tốt hơn nhiều so với Kolmogorov vì vậy tôi sẽ sử dụng nó, nhưng hy vọng logic sẽ dịch.

Giả sử là tổng tín hiệu của bạn ( X ), bao gồm tổng tín hiệu bạn muốn S và thành phần nhiễu N của bạn . Hãy gọi entropy H . Như bạn đã nói, tiếng ồn thêm entropy vào một hệ thống bằng cách tăng độ phức tạp của nó. Tuy nhiên, điều đó không nhất thiết chỉ bởi vì chúng tôi không chắc chắn hơn về nội dung thông tin của tín hiệu, mà bởi vì có sự không chắc chắn hơn trong tín hiệu nói chung. Nếu SNR đo lường mức độ chắc chắn của chúng ta đối với S là gì , thì H ( X ) là loại biện pháp chúng ta có thể dự đoán các trạng thái tương lai của XX=S+NXSNHSH(X)Xdựa trên tình trạng hiện thời của . Entropy quan tâm đến việc toàn bộ tín hiệu phức tạp như thế nào, bất kể thành phần của nhiễu so với không nhiễu.X

Nếu bạn tăng SNR bằng cách loại bỏ nhiễu (giảm ), bạn sẽ giảm độ phức tạp của tín hiệu X và do đó entropy của nó. Bạn đã không bị mất bất kỳ thông tin thực hiện bởi S , chỉ có (có lẽ là vô nghĩa) Thông tin vận chuyển bằng N . Nếu N là nhiễu ngẫu nhiên, thì rõ ràng nó không mang thông tin có ý nghĩa, nhưng phải mất một lượng thông tin nhất định để mô tả trạng thái của N , được xác định bởi số trạng thái mà N có thể ở và xác suất xảy ra mỗi trạng thái Đó là entropy.NXSNNN

Chúng ta có thể xem xét hai phân phối Gaussian với các phương sai khác nhau, giả sử một cái có phương sai bằng và cái kia có phương sai là 100 . Chỉ cần nhìn vào phương trình của phân phối Gaussian, chúng ta thấy rằng phân phối V a r = 100 có xác suất tối đa chỉ là 11100Var=100Giá trị thứ 10 của xác suấtvar=1distr. Ngược lại, điều này có nghĩa là xác suất lớn hơn rằngVar=100distr sẽ lấy các giá trị khác với giá trị trung bình hoặc có nhiều chắc chắn rằngphân phốiVar=1sẽ lấy các giá trị gần giá trị trung bình. Vì vậy,phân phốiVar=1có entropy thấp hơn phân phốiVar=100.110var=1Var=100Var=1Var=1Var=100

Chúng tôi thiết lập rằng phương sai cao hơn hàm ý entropy cao hơn. Nhìn vào sự lan truyền lỗi, cũng đúng là (bằng với X , Y ) độc lập . Nếu X = S + N , thì với entropy H , H ( X ) = H ( S + N ) . TừVar(X+Y)>=Var(X)+Var(Y)XYX=S+NHH(X)=H(S+N) (gián tiếp) là một hàm của phương sai, chúng ta có thể làm mờ mọi thứ một chút để nói H ( V a r [ X ] ) = H ( V a r [ S + N ] ) . Để đơn giản hóa, chúng ta nói S N là độc lập, vì vậy H ( V a r [ X ] ) = H ( V a r [ S ] + V a r [ NHH(Var[X])=H(Var[S+N])SN . SNR được cải thiện thường có nghĩa là giảm công suất tiếng ồn. Tín hiệu mới này với SNR cao hơn sau đó sẽ là X = S + ( 1H(Var[X])=H(Var[S]+Var[N]), vớik>1. Entropy sau đó trở thànhH(Vmộtr[X])=H(Vmộtr[S]+(1/k)2*Vmộtr[N]). klớn hơn1, vì vậyVar[N]sẽ giảm khi N bị suy giảm. NếuVaX=S+(1k)Nk>1H(Var[X])=H(Var[S]+(1/k)2Var[N])k1Var[N] giảm, V a r [ S + N ] cũng vậy, và do đó V a r [ X ] , dẫn đến giảm H ( X ) .Var[N]Var[S+N]Var[X]H(X)

Không ngắn gọn lắm, xin lỗi. Nói tóm lại, 's entropy giảm nếu bạn tăng SNR, nhưng bạn đã làm gì để S ' thông tin s. Tôi không thể tìm thấy các nguồn ngay bây giờ, nhưng có một phương pháp để tính toán SNR và thông tin lẫn nhau (một thước đo hai biến tương tự như entropy) với nhau. Có lẽ điều đáng nói chính là SNR và entropy không đo lường được điều tương tự.XS


Cảm ơn bạn về các chi tiết, nó sẽ thực sự tuyệt vời nếu có một tài liệu tham khảo về phân tích bitof nhỏ mà bạn đã làm vì tôi cần cung cấp mối quan hệ này giữa entropy và SNR trong một bài báo và từ đó trích dẫn.
Rịa George

Phân tích của tôi là khá không chính thức; nó phụ thuộc quá nhiều vào trực giác / logic để yêu cầu bất kỳ loại nghiêm ngặt nào. Điểm yếu tôi thấy ngay lập tức là tuyên bố rằng SNR tăng tương đương với giảm phương sai tổng thể. Tuyên bố này được giữ nếu bạn tăng SNR bằng cách giảm nhiễu, nhưng không nhất thiết nếu bạn tăng công suất tín hiệu (vì điều đó có thể làm tăng phương sai tín hiệu ==> phương sai tổng thể ==> entropy). Có khả năng khác để đi đến kết luận này, mặc dù. Tôi nghĩ rằng mối quan hệ giữa MI và SNR đến từ Schloegl 2010 "Phương pháp thích nghi trong nghiên cứu BCI - Hướng dẫn giới thiệu"
dpbont

: Xin lỗi để một lần nữa bắt đầu chủ đề này trong tiếp tục. Tôi đã gặp một vấn đề khi tôi tìm thấy lỗi của entropy của một mô hình trong đó error = wish_signal - Ước_signal. Khi tăng SNR, tôi thấy rằng entropy của lỗi đang gia tăng. Nhưng, khi tôi tính toán entropy của tín hiệu mong muốn khi tăng SNR thì entropy của X sẽ giảm. Bạn có thể vui lòng đưa ra một số hiểu biết về trường hợp trước đây khi entropy của lỗi tăng lên khi tăng SNR? X
Rịa George

Hai câu hỏi. 1) Khi bạn nói SNR tăng, ý bạn là SNR của tín hiệu ước tính? (Tôi giả sử như vậy.) 2) Điều gì xảy ra với lỗi của bạn khi entropy của lỗi tăng? Nói chung, tăng entropy có nghĩa là tăng phương sai / giảm khả năng dự đoán. Tôi có thể hình dung một tình huống trong đó phương sai lỗi của bạn tăng nhưng bạn loại bỏ sai lệch lỗi (có thể làm tăng entropy lỗi nhưng giảm lỗi).
dpbont

Cảm ơn bạn đã trả lời nhanh chóng. (1) Bằng cách tăng SNR Tôi có nghĩa là tăng SNR của nhiễu đo trong mô hình. Vì vậy, trong Eq Tôi tăng SNR của N và đo entropy H1 (X) & H2 (lỗi). (2) Các lỗi giảm và tất cả các giá trị trở nên bằng hoặc ít hơn bằng không. Cách tôi tính toán entropy của lỗi như sau: Xem xét mô hình AR (2). Kết thúc của người nhận, z ( t ) = X ( t ) - ( a 1 X ( t - 1 ) + b 1 X ( t - 2X=S+NN trong đó (a1, b1) là các tham số đoán & X ( t ) là các quan sát tại một SNR cụ thể của N nói snr1. Giả sử tôi có 5 cặp phỏng đoán (a1, b1) và với mỗi cặp tôi nhận được entropy lỗi. z(t)=X(t)(a1X(t1)+b1X(t2))X(t)N
Rịa George

1

Đây là một trích dẫn [1, p. 186]để giúp bạn, OP hoặc Googler, bắt đầu:

Rất gần, H(number of active components in data)×logSNR

Ở đây H là entropy âm của phân bố sau của các tham số của mô hình tín hiệu của bạn. Chúc may mắn!

[1] D. Sivia and J. Skilling, Data analysis: a Bayesian tutorial. OUP Oxford, 2006
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.