Tôi đoán câu hỏi của bạn liên quan nhiều hơn đến "ý nghĩa" của logarit đó và tại sao mỗi thành phần đóng góp vào ý nghĩa tổng thể của công thức, chứ không phải là chủ nghĩa hình thức đơn thuần thể hiện sự gắn kết của định nghĩa với các yêu cầu nhất định.
p(x)−log(p(x))
- p(x)
- −log(p(x))
p(x)−log(p(x))
Từ bây giờ, tôi sẽ thảo luận về cách CHUNG ảnh hưởng đến công thức entropy cuối cùng.
log2(x)=number_of_bits_to_encode_the_messages
Bây giờ, hãy ngồi, thư giãn và xem Entropy của Shannon đẹp như thế nào: nó dựa trên giả định (hợp lý) rằng các tin nhắn mang tính CHUNG hơn, do đó, TẦN SỐ hơn.
Ví dụ, tôi sẽ nói rằng đó là mưa hoặc nếu đó là một cơn mưa trung bình, nặng hạt hoặc rất nặng. Do đó, ông đã đề xuất mã hóa tính CHUNG của các tin nhắn dựa trên mức độ TỰ DO của chúng ... và bạn sẽ đến đó:
log2N=−log21/N=−log2P
Nx
Phương trình có thể được hiểu là: các thông điệp hiếm sẽ có mã hóa dài hơn vì chúng ít tổng quát hơn, vì vậy chúng cần nhiều bit hơn để được mã hóa và ít thông tin hơn. Do đó, việc có các tin nhắn cụ thể và hiếm hơn sẽ đóng góp nhiều hơn cho entropy hơn là có nhiều tin nhắn chung và thường xuyên.
p(x)−log(p(x))
Entropy cao nhất là khi chúng ta có một hệ thống với nhiều thông điệp hiếm và cụ thể. Entropy thấp nhất với các thông điệp thường xuyên và chung chung. Ở giữa, chúng ta có một phổ các hệ thống tương đương entropy có thể có cả tin nhắn hiếm và chung hoặc tin nhắn thường xuyên nhưng cụ thể.