Không có cách giải thích về entropy khác biệt sẽ có ý nghĩa hoặc hữu ích như entropy. Vấn đề với các biến ngẫu nhiên liên tục là các giá trị của chúng thường có xác suất 0 và do đó sẽ yêu cầu số lượng bit vô hạn để mã hóa.
Nếu bạn nhìn vào giới hạn của entropy rời rạc bằng cách đo xác suất khoảng [nε,(n+1)ε[ , bạn kết thúc với
−∫p(x)log2p(x)dx−log2ε
và không phải là entropy vi sai. Đại lượng này có ý nghĩa hơn, nhưng sẽ phân kỳ đến vô cùng khi chúng ta thực hiện các khoảng nhỏ hơn và nhỏ hơn. Điều này có ý nghĩa, vì chúng ta sẽ cần ngày càng nhiều bit để mã hóa trong đó nhiều khoảng giá trị của giá trị ngẫu nhiên của chúng ta rơi.
Một đại lượng hữu ích hơn để xem xét các phân phối liên tục là entropy tương đối (cũng là phân kỳ Kullback - Leibler). Đối với phân phối rời rạc:
DKL[P||Q]=∑xP(x)log2P(x)Q(x).
Nó đo số lượng bit thừa được sử dụng khi phân phối thực sự là P , nhưng chúng tôi sử dụng −logQ2(x) các bit Q 2 ( x ) để mã hóa x . Chúng ta có thể lấy giới hạn của entropy tương đối và đến
DKL[p∣∣q]=∫p(x)log2p(x)q(x)dx,
log2ε
p(x)λ(x)=1
−∫p(x)log2p(x)dx=−DKL[p∣∣λ].
−log2∫(n+1)εnεp(x)dxn−logελ
Xem bài nói chuyện của Sergio Verdu để có phần giới thiệu tuyệt vời về entropy tương đối.