Renyi entropy tương tự, theo một cách nào đó, với -norms, vì vậy trước tiên chúng ta hãy nhớ lại tại sao những chuẩn mực đó lại hữu ích.ℓp
Giả sử ta có một vectơ các số . Chúng tôi muốn có một số duy nhất đại diện, theo một cách nào đó, yếu tố điển hình của một diện mạo trông như thế nào.a∈Rna
Một cách để làm như vậy là để lấy trung bình các số trong , trong đó khoảng tương ứng với ℓ 1 chuẩn: E 1 ≤ i ≤ n [ | một tôi | ] . Đây là thường hữu ích, nhưng đối với một số ứng dụng nó có những vấn đề sau: Thứ nhất, ℓ 1 chuẩn mực không cho chúng ta một tốt giới hạn trên cho phần tử lớn nhất của một , bởi vì nếu có một yếu tố duy nhất lớn và nhiều zero, các ℓ 1 định mức sẽ nhỏ hơn đáng kể so với phần tử lớn nhất. Mặt khác, ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1chuẩn mực cũng không cung cấp cho chúng ta một tốt ràng buộc về nhỏ như thế nào các yếu tố của là, ví dụ, có bao nhiêu zero một có - Vấn đề này xảy ra trong chính xác cùng một kịch bản như trước đây.aa
Tất nhiên, khi các yếu tố của phương sai có nhiều phương sai, chẳng hạn như trong kịch bản cực đoan như trên, không một con số nào có thể đưa ra giải quyết cả hai vấn đề trên. Chúng tôi có một sự đánh đổi. Ví dụ: nếu chúng ta chỉ muốn biết phần tử lớn nhất, chúng ta có thể sử dụng định mức ℓ ∞ , nhưng sau đó chúng ta sẽ mất tất cả thông tin về các phần tử nhỏ hơn. Nếu chúng ta muốn số lượng số không, chúng ta có thể xem định mức ℓ 0 , đây chỉ là kích thước của sự hỗ trợ của a .aℓ∞ℓ0a
Bây giờ, lý do để xem xét định mức là họ cung cấp cho chúng tôi toàn bộ sự cân bằng liên tục giữa hai thái cực. Nếu chúng ta muốn biết thêm thông tin về các phần tử lớn, chúng ta sẽ lấy p lớn hơn và ngược lại.ℓpp
Điều tương tự cũng xảy ra với các entropy của Renyi: entropy của Shanon giống như định mức - nó cho chúng ta biết điều gì đó về xác suất "điển hình" của một yếu tố, nhưng không có gì về phương sai hoặc cực trị. Entropy min cung cấp cho chúng ta thông tin về phần tử với xác suất lớn nhất, nhưng mất tất cả thông tin về phần còn lại. Kích thước hỗ trợ cho cực đoan khác. Các entropies Renyi cho chúng ta một sự đánh đổi liên tục giữa hai thái cực.ℓ1
Ví dụ, nhiều lần entropy Renyi-2 hữu ích vì nó một mặt gần với entropy của Shanon, và do đó chứa thông tin về tất cả các yếu tố trên bản phân phối, mặt khác cung cấp thêm thông tin về các phần tử lớn nhất xác suất. Cụ thể, người ta biết rằng các giới hạn của entropy Renyi-2 đưa ra các giới hạn trên entropy min, xem, ví dụ, Phụ lục A ở đây: http://people.seas.harvard.edu/~salil/research/conductors-pr006 .ps