Dưới đây là một mã hóa cụ thể có thể đại diện cho mỗi ký hiệu trung bình dưới 1 bit:
Đầu tiên, chia chuỗi đầu vào thành các cặp ký tự liên tiếp (ví dụ AAAAAAAABC trở thành AA | AA | AA | AA | BC). Sau đó mã hóa AA là 0, AB là 100, AC là 101, BA là 110, CA là 1110, BB là 111100, BC là 111101, CB là 111110, CC là 111111.
Tôi chưa nói điều gì xảy ra nếu có số lẻ số lượng biểu tượng, nhưng bạn chỉ có thể mã hóa biểu tượng cuối cùng bằng cách sử dụng một số mã hóa tùy ý, điều đó không thực sự quan trọng khi đầu vào dài.
Đây là mã Huffman để phân phối các cặp ký hiệu độc lập và tương ứng với việc chọn trong câu trả lời của Yuval. Lớn hơn sẽ dẫn đến các mã thậm chí tốt hơn (tiếp cận entropy Shannon trong giới hạn, như ông đã đề cập).n = 2n
Số bit trung bình trên mỗi cặp ký hiệu cho mã hóa trên là
tức là bit cho mỗi ký hiệu, không quá xa so với entropy Shannon thực sự cho một mã hóa đơn giản như vậy.số 810⋅ 810⋅ 1 + 3 ⋅ 810⋅ 110⋅ 3 + 110⋅ 810⋅ 4 + 4 ⋅ 110⋅ 110⋅ 6 = 1,92
1,92 / 2 = 0,96