Theo Wikipedia :
Entropy của Shannon đo lường thông tin chứa trong một tin nhắn trái ngược với phần của thông điệp được xác định (hoặc có thể dự đoán được). Các ví dụ sau này bao gồm sự dư thừa trong cấu trúc ngôn ngữ hoặc thuộc tính thống kê liên quan đến tần suất xuất hiện của các cặp chữ cái hoặc từ, bộ ba, v.v.
Vì vậy, entropy là thước đo lượng thông tin có trong một tin nhắn. Các bộ mã hóa Entropy được sử dụng để losslessy nén một thông điệp như vậy đến số bit tối thiểu cần thiết để thể hiện nó (entropy). Đối với tôi điều này có vẻ như một bộ mã hóa entropy hoàn hảo sẽ là tất cả những gì cần thiết để losslessy nén một tin nhắn càng nhiều càng tốt.
Tuy nhiên, nhiều thuật toán nén sử dụng các bước trước khi mã hóa entropy để giảm entropy của thông điệp.
Theo Wikipedia tiếng Đức
Entropiekodierer werden häufig mit anderen Kodierern kombiniert. Dabei dienen vorgeschaltete Verfahren dazu, chết Entropie der Daten zu verringern.
Bằng tiếng Anh:
Các lập trình viên Entropy thường được kết hợp với các bộ mã hóa khác. Các bước trước phục vụ để giảm entropy của dữ liệu.
tức là bzip2 sử dụng Burrows-Wheeler-Transform theo sau là Move-To-Front-Transform trước khi áp dụng mã hóa entropy (mã hóa Huffman trong trường hợp này).
Các bước này có thực sự làm giảm entropy của tin nhắn, điều này có nghĩa là giảm lượng thông tin có trong tin nhắn? Điều này có vẻ mâu thuẫn với tôi, vì điều đó có nghĩa là thông tin bị mất trong quá trình nén, ngăn chặn việc giải nén không mất mát. Hay họ chỉ đơn thuần chuyển đổi thông điệp để cải thiện hiệu quả của thuật toán mã hóa entropy? Hoặc entropy không tương ứng trực tiếp với lượng thông tin trong tin nhắn?