cho đến hôm nay tôi mới biết rằng một bit là một biến hoặc một khoảng trống trong bộ nhớ có thể chứa giá trị là Một (cao) hoặc Không (thấp). Đây là khái niệm tôi học được từ việc học lập trình máy tính, vi xử lý hoặc bus DATA, v.v.
Nhưng sau khi bắt đầu khóa học về lý thuyết thông tin, tôi phát hiện ra rằng bit được thể hiện dưới dạng nội dung thông tin của một biểu tượng trong tin nhắn. Điều này được tính bằng cách lấy logarit (cơ sở 2) của nghịch đảo xác suất xuất hiện của ký hiệu.
Hai khái niệm này có giống nhau không? Một mặt một bit là một biến có thể lưu trữ bằng 0 hoặc một. Mặt khác, một bit là độ không đảm bảo liên quan đến một trong hai ký hiệu có xác suất xuất hiện là 0,5. Vì vậy, 1 bit trong lập trình máy tính hoặc mã ASCII có nghĩa là 1 bit trong nội dung thông tin của lý thuyết nguồn hoặc thông tin?
Một chút chỉnh sửa: đây là một điều tôi đang gặp khó khăn khi hiểu chủ đề này. Xem, trong truyền dữ liệu của bảng chữ cái tiếng Anh, nếu chúng ta sử dụng mã ASCII, về cơ bản chúng ta đại diện cho mỗi ký hiệu có 8 bit. Giả sử đó là 00000000 cho a, 00000001 cho b, v.v. Vì vậy, về cơ bản chúng tôi đang phân bổ 8 mức lượng tử hóa cho mỗi biểu tượng.
Nhưng khi lý thuyết thông tin ra đời, chúng ta sẽ tính đến xác suất của từng biểu tượng. 'E' có tần số cao nhất, trong đó 'Z' có tần số thấp nhất. Vì vậy, nội dung thông tin trung bình giảm xuống còn 3 hoặc 4 bit, phải không?
Cuốn sách của tôi nói, 'Entropy hoặc nội dung thông tin trung bình là số bit trung bình tối thiểu cần thiết để đại diện cho mỗi mẫu mà không bị biến dạng. Vì vậy, trong trường hợp này, để truyền dữ liệu hiệu quả, chúng ta có tạo ra bốn mức lượng tử hóa tối đa cho mỗi ký hiệu không? Bởi vì, trung bình họ mang thông tin trị giá 4 bit. Nếu đó là như vậy, không phải bit trong lý thuyết thông tin giống như trong lập trình máy tính, truyền dữ liệu hoặc mã ASCII, v.v.?
Bạn có thể nhận được rằng tôi rõ ràng là một người mới ở đây: p