Tôi từ lâu đã phải đối mặt với sự nhầm lẫn về entropy và sẽ bị bắt buộc nếu những điều sau đây được trả lời bằng thuật ngữ ít kỹ thuật hơn. Theo liên kết Các loại entropy khác nhau đặt ra các câu hỏi sau
- Entropy- Mong muốn rằng entropy của hệ thống được tối đa hóa. Tối đa hóa entropy có nghĩa là không có biểu tượng nào tốt hơn các biểu tượng khác hoặc chúng ta không biết biểu tượng / kết quả tiếp theo sẽ là gì. Tuy nhiên, công thức nêu một dấu âm trước khi tính tổng các logarit xác suất. Vì vậy, nó có nghĩa là chúng tôi đang tối đa hóa một giá trị âm !! Sau đó, nếu tín hiệu thô ban đầu được lượng tử hóa và entropy của thông tin được lượng tử hóa được tính toán và được tìm thấy nhỏ hơn entropy ban đầu sẽ có nghĩa là mất thông tin. Vì vậy, tại sao chúng ta muốn tối đa hóa entropy vì điều đó có nghĩa là chúng ta đang tối đa hóa sự không chắc chắn của biểu tượng tiếp theo trong khi chúng ta muốn chắc chắn về sự xuất hiện tiếp theo của biểu tượng.
- Sự khác biệt giữa entropy, entropy topo và entropy nguồn của Shannon là gì?
- Chính xác thì ý nghĩa của độ phức tạp Koleimorov hay entropy của Koleimorov. Làm thế nào nó liên quan đến entropy của Shannon?
- Thông tin nào thông tin lẫn nhau giữa hai vectơ truyền đạt?