Tôi sẽ giải quyết vấn đề này, mặc dù nó ở trên đầu tôi một chút, vì vậy hãy xử lý bằng cách rắc muối ...
Bạn không chính xác sai. Tôi nghĩ rằng thí nghiệm suy nghĩ của bạn rơi xuống là entropy khác biệt không phải là trường hợp giới hạn của entropy. Tôi đoán rằng vì điều này, sự tương đồng giữa nó và sự phức tạp Kolmogorov bị mất.
Giả sử chúng ta có một biến ngẫu nhiên rời rạc . Chúng ta có thể tính toán entropy Shannon của nó như sau bằng cách tính tổng tất cả các giá trị có thể của nó x i ,
H ( X ) = - ∑ i P ( X = x i ) log ( P ( X = x i ) ) .XxTôi
H( X) = - ΣTôiP( X= xTôi) đăng nhập( P( X= xTôi) ) .
Cho đến nay thật nhàm chán. Bây giờ hãy nói rằng là một phiên bản lượng tử của một biến ngẫu nhiên liên tục - giả sử, chúng ta có hàm mật độ p ( ) tạo ra các mẫu từ tập hợp các số thực và chúng ta biến nó thành biểu đồ. Chúng ta sẽ có một biểu đồ đủ tốt để hàm mật độ về cơ bản là tuyến tính. Trong trường hợp đó chúng ta sẽ có một cái gì đó entropy như thế này,
H ( X ) ≈ - Σ i p ( X = x i ) δ x log ( p ( X = x i ) δ xXp ( )
trong đóδxlà chiều rộng của các ô biểu đồ của chúng tôi vàxilà trung điểm của mỗithùng. Chúng tôi có một sản phẩm bên trong logarit đó - hãy tách nó ra và sử dụng thuộc tính của phân phối xác suất tổng hợp thành 1 để di chuyển nó ra ngoài tổng, cho chúng tôi
H(X)≈-log ( δx ) - ∑ i p(X=xi)δxlog ( p(x=xi) ) .
H( X) ≈ - ΣTôip ( X= xTôi) δnhật ký x( p ( X= xTôi) δx ) ,
δxxTôiH( X) ≈ - đăng nhập( δx ) - ΣTôip ( X= xTôi) δnhật ký x( p ( X= xTôi) ) .
δx → dx
H( X) = - đăng nhập( dx ) - ∫xp ( X= x ) nhật ký( p(X= x ) ) dx .
đăng nhập( dx )
σ
δ
∫xp ( X= x ) nhật ký( p ( X= x )q( X= x )) dx
q( X)Xp ( X)q( X)