Trong lý thuyết mã hóa, 'mã tốt như thế nào' có nghĩa là có thể sửa được bao nhiêu lỗi kênh hoặc tốt hơn là đặt mức nhiễu tối đa mà mã có thể xử lý.
Để có được mã tốt hơn, các mã được thiết kế bằng bảng chữ cái lớn (thay vì mã nhị phân). Và sau đó, mã là tốt nếu nó có thể xử lý một tỷ lệ lớn các "biểu tượng" sai lầm.
Tại sao điều này không được coi là gian lận? Ý tôi là, chúng ta không nên quan tâm đến những gì xảy ra khi chúng ta "dịch" từng biểu tượng thành một chuỗi nhị phân? "Tỷ lệ lỗi bit" khác với tỷ lệ "lỗi ký hiệu". Chẳng hạn, tỷ lệ lỗi bit không thể vượt quá 1/2 trong khi (nếu tôi hiểu chính xác điều này), với bảng chữ cái đủ lớn, lỗi biểu tượng có thể lên tới . Đây có phải là do chúng tôi hạn chế một cách giả tạo kênh chỉ thay đổi "biểu tượng" thay vì bit, hay là vì mã thực sự tốt hơn?