Câu hỏi được gắn thẻ «it.information-theory»

Câu hỏi trong Lý thuyết thông tin



3
Khối lượng thông tin là gì?
Câu hỏi này đã được hỏi với Jeannette Wing sau bài thuyết trình PCAST của cô về khoa học máy tính. Từ góc độ vật lý, chúng ta có thể có khối lượng thông tin tối đa không? Ngoài "thông tin là gì?" người ta cũng nên tìm hiểu "âm …




3
Có mối liên hệ nào giữa định mức kim cương và khoảng cách của các quốc gia liên quan không?
Trong lý thuyết thông tin lượng tử, khoảng cách giữa hai kênh lượng tử thường được đo bằng định mức kim cương. Ngoài ra còn có một số cách để đo khoảng cách giữa hai trạng thái lượng tử, chẳng hạn như khoảng cách theo dõi, độ trung thực, v.v …



5
Các tiện ích của entropies Renyi?
Hầu hết chúng ta đều quen thuộc - hoặc ít nhất đã nghe nói về - entropy Shannon của một biến ngẫu nhiên, H(X)=−E[logp(X)]H(X)=−E[log⁡p(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] và tất cả các biện pháp lý thuyết thông tin liên quan như entropy tương đối, thông tin lẫn nhau, và …

4
Sự tương đương eta cho các chức năng có tương thích với hoạt động seq của Haskell không?
Bổ đề: Giả sử tương đương eta chúng ta có điều đó (\x -> ⊥) = ⊥ :: A -> B. Bằng chứng: ⊥ = (\x -> ⊥ x)bằng cách tương đương eta, và (\x -> ⊥ x) = (\x -> ⊥)bằng cách giảm theo lambda. Báo cáo Haskell 2010, …




3
Trên entropy của một khoản tiền
Tôi đang tìm kiếm một ràng buộc trên entropy H(X+Y)H(X+Y)H(X+Y) của tổng của hai biến ngẫu nhiên rời rạc độc lập và . Đương nhiên, Tuy nhiên, áp dụng cho tổng biến ngẫu nhiên Bernoulli độc lập , điều này mang lại cho Nói cách khác, ràng buộc phát triển …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.