Entropy vi sai


13

Entropy khác biệt của Gaussian RV là . Điều này phụ thuộc vàoσ, là độ lệch chuẩn.đăng nhập2(σ2πe)σ

Nếu chúng ta bình thường hóa biến ngẫu nhiên để nó có phương sai đơn vị giảm entropy của nó. Đối với tôi điều này là phản trực giác bởi vì độ phức tạp của hằng số chuẩn hóa Kolmogorov rất nhỏ so với việc giảm entropy. Người ta có thể chỉ cần nghĩ ra một bộ giải mã mã hóa chia / bội với hằng số chuẩn hóa để phục hồi bất kỳ tập dữ liệu nào được tạo bởi biến ngẫu nhiên này.

Có lẽ sự hiểu biết của tôi là tắt. Bạn có thể vui lòng chỉ ra lỗ hổng của tôi?

Câu trả lời:


17

Tôi sẽ giải quyết vấn đề này, mặc dù nó ở trên đầu tôi một chút, vì vậy hãy xử lý bằng cách rắc muối ...

Bạn không chính xác sai. Tôi nghĩ rằng thí nghiệm suy nghĩ của bạn rơi xuống là entropy khác biệt không phải là trường hợp giới hạn của entropy. Tôi đoán rằng vì điều này, sự tương đồng giữa nó và sự phức tạp Kolmogorov bị mất.

Giả sử chúng ta có một biến ngẫu nhiên rời rạc . Chúng ta có thể tính toán entropy Shannon của nó như sau bằng cách tính tổng tất cả các giá trị có thể của nó x i , H ( X ) = - i P ( X = x i ) log ( P ( X = x i ) ) .XxTôi

H(X)= =-ΣTôiP(X= =xTôi)đăng nhập(P(X= =xTôi)).

Cho đến nay thật nhàm chán. Bây giờ hãy nói rằng là một phiên bản lượng tử của một biến ngẫu nhiên liên tục - giả sử, chúng ta có hàm mật độ p ( ) tạo ra các mẫu từ tập hợp các số thực và chúng ta biến nó thành biểu đồ. Chúng ta sẽ có một biểu đồ đủ tốt để hàm mật độ về cơ bản là tuyến tính. Trong trường hợp đó chúng ta sẽ có một cái gì đó entropy như thế này, H ( X ) - Σ i p ( X = x i ) δ x log ( p ( X = x i ) δ xXp() trong đóδxlà chiều rộng của các ô biểu đồ của chúng tôi vàxilà trung điểm của mỗithùng. Chúng tôi có một sản phẩm bên trong logarit đó - hãy tách nó ra và sử dụng thuộc tính của phân phối xác suất tổng hợp thành 1 để di chuyển nó ra ngoài tổng, cho chúng tôi H(X)-log ( δx ) -i p(X=xi)δxlog ( p(x=xi) ) .

H(X)-ΣTôip(X= =xTôi)δxđăng nhập(p(X= =xTôi)δx),
δxxTôi
H(X)-đăng nhập(δx)-ΣTôip(X= =xTôi)δxđăng nhập(p(X= =xTôi)).

δxdx

H(X)= =-đăng nhập(dx)-xp(X= =x)đăng nhập(p(X= =x))dx.

đăng nhập(dx)

σ

δ

xp(X= =x)đăng nhập(p(X= =x)q(X= =x))dx
q(X)Xp(X)q(X)

Cảm ơn. Thật là thú vị. Tôi không biết có một mánh lới quảng cáo như vậy trong lý thuyết.
Cagdas Ozgenc

1
ký ký hiệuđăng nhập(dx)p(x)-ΣTôip(xTôi)δxđăng nhậpp(xTôi)h(X)δx0nh(X)+n

1
đăng nhập(dx)

@Cagdas - Tôi không biết nếu tôi gọi nó là mánh lới quảng cáo. Nó chỉ đo một thứ khác. Và như hồng y chỉ ra, nó có một số công dụng. Còn về việc nó có bị hỏng khi áp dụng cho phân phối nhị thức hay không, tùy thuộc vào cách bạn sẽ áp dụng nó :). Có lẽ đáng để bắt đầu một chủ đề mới nếu bạn không chắc chắn.
Pat

Tôi nghĩ rằng entropy rõ ràng khác với độ phức tạp Kolmogorov khi người ta xem xét các bộ tạo số giả ngẫu nhiên.
James Bowery
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.