Ai đặt ra thuật ngữ entropy entropy theo kinh nghiệm?


9

Tôi biết về công việc của Shannon với entropy, nhưng gần đây tôi đã làm việc trên các cấu trúc dữ liệu cô đọng trong đó entropy theo kinh nghiệm thường được sử dụng như một phần của phân tích lưu trữ.

Shannon đã xác định entropy của thông tin được tạo bởi một nguồn thông tin rời rạc là , trong đó là xác suất của sự kiện xảy ra, ví dụ như một ký tự cụ thể được tạo và có sự kiện có thể. p i i k-ΣTôi= =1kpTôiđăng nhậppTôipTôiTôik

Như MCH đã chỉ ra trong các bình luận, entropy theo kinh nghiệm là entropy của phân phối theo kinh nghiệm của các sự kiện này và do đó được đưa ra bởi trong đó là số lần xuất hiện quan sát của sự kiện và là tổng số sự kiện được quan sát. Điều này được gọi là entropy thứ tự không thứ tự . Khái niệm entropyđiều kiện của Shannon có phiên bản thực nghiệm bậc cao tương tự . niin-ΣTôi= =1knTôinđăng nhậpnTôinnTôiTôin

Shannon đã không sử dụng thuật ngữ entropy theo kinh nghiệm, mặc dù ông chắc chắn xứng đáng với một số tín dụng cho khái niệm này. Ai là người đầu tiên sử dụng ý tưởng này và ai là người đầu tiên sử dụng tên entropy theo kinh nghiệm (rất logic) để mô tả nó?


"được xác định theo chiều cho mọi chuỗi" nghe có vẻ phức tạp Kolmogorov: đó có phải là những gì bạn đang đề cập đến? Nếu không, bạn có thể trỏ đến một liên kết xác định nó, hoặc tốt hơn là vẫn cung cấp một defn trong chính câu hỏi?
Suresh Venkat

1
Nó được gọi như vậy bởi vì entropy theo kinh nghiệm là entropy của phân phối theo kinh nghiệm của một chuỗi.
Mahdi Cheraghchi

@SureshVenkat Tôi đã cố gắng xây dựng câu hỏi.
người dùng đã xóa 42

1
Hãy xem Kosaraju S. Rao, Manzini G., "Nén chuỗi entropy thấp với thuật toán Lempel-Ziv" (1998), quá. Họ phân tích hiệu suất của các thuật toán Lempel-Ziv bằng cách sử dụng " cái gọi là entropy theo kinh nghiệm ".
Marzio De Biasi

2
Lưu ý rằng "phân phối theo kinh nghiệm" thực sự là phân phối ML cho một tập hợp tần số đã cho. Vì vậy, tôi tự hỏi nếu điều này ngày trở lại Bayes. Ngay cả Laplace cũng đã suy nghĩ về vấn đề xác định phân phối từ số lượng thực nghiệm.
Suresh Venkat

Câu trả lời:


3

Tôi quan tâm đến "entropy theo kinh nghiệm" như bạn và bài báo sớm nhất tôi tìm thấy là từ Kosaraju như người dùng "Marzio De Biasi" đã nói trong bình luận của mình.

Nhưng theo tôi, các định nghĩa thực sự về "entropy theo kinh nghiệm" được đưa ra sau đó bằng cách khái quát các khái niệm trước đây:

  1. "Bảng chữ cái lớn và không thể nén được" của Travis Gagie (2008)
  2. "Entropy entropy" của Paul MB Vitányi (2011)

Gagie viết lại định nghĩa của entropy theo thứ tự thứ để: k

  • Hk(w)= =1|w|tối thiểuQ{đăng nhập1P(Q= =w)}

Trong đó là một quá trình Markov thứ . Ông cũng chỉ ra rằng định nghĩa này tương đương với định nghĩa trước đó. Bước tiếp theo từ Vitányi là khái quát hóa các lớp quy trình tùy ý (không chỉ các quy trình Markov):kQk

  • H(w|X)= =tối thiểuX{K(X)+H(X):|H(X)-đăng nhập1P(X= =w)|TôiSmTôinTôimmộttôi!}

Trong đó là lớp các quy trình được phép và là độ phức tạp Kolmogorov. Nếu chúng ta chọn là lớp của thứ trật tự Markov các quá trình sản xuất một chuỗi cáccác biến ngẫu nhiên và bỏ qua độ phức tạp Kolmogorov, điều này cũng dẫn đến định nghĩa của Gagie (nhân với ).XK(X)
Xk|w||w|

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.