Entropy cho bạn biết có bao nhiêu sự không chắc chắn trong hệ thống. Giả sử bạn đang tìm một con mèo và bạn biết rằng nó ở đâu đó giữa nhà bạn và hàng xóm, cách đó 1 dặm. Con bạn nói với bạn rằng xác suất một con mèo ở khoảng cách từ nhà bạn được mô tả tốt nhất bằng phân phối beta . Vì vậy, một con mèo có thể ở bất cứ đâu trong khoảng từ 0 đến 1, nhưng nhiều khả năng là ở giữa, tức là .x f(x;2,2)xmax=1/2
Hãy cắm phân phối beta vào phương trình của bạn, sau đó bạn nhận được .H=−0.125
Tiếp theo, bạn hỏi vợ và cô ấy nói với bạn rằng phân phối tốt nhất để mô tả kiến thức của cô ấy về con mèo của bạn là phân phối đồng đều. Nếu bạn cắm nó vào phương trình entropy của bạn, bạn nhận được .H=0
Cả hai thống nhất và beta phân phối để cho mèo được bất cứ nơi nào giữa 0 và 1 dặm từ ngôi nhà của bạn, nhưng có sự không chắc chắn ở những bộ đồng phục, bởi vì vợ của bạn có thực sự không có đầu mối, nơi con mèo là lẩn trốn, trong khi trẻ em có một số ý tưởng , họ nghĩ đó là chi tiết có khả năng là một nơi nào đó ở giữa. Đó là lý do tại sao entropy của Beta thấp hơn Đồng phục.
Bạn có thể thử các bản phân phối khác, có thể hàng xóm của bạn nói với bạn rằng con mèo thích ở gần một trong hai ngôi nhà, vì vậy bản phân phối beta của nó là với . của nó phải thấp hơn đồng phục một lần nữa, bởi vì bạn có một số ý tưởng về nơi để tìm một con mèo. Đoán xem entropy thông tin của hàng xóm của bạn cao hơn hoặc thấp hơn con bạn? Tôi đặt cược vào trẻ em bất cứ ngày nào về những vấn đề này.α=β=1/2H
CẬP NHẬT:
Cái này hoạt động ra sao? Một cách để nghĩ về điều này là bắt đầu với một phân phối thống nhất. Nếu bạn đồng ý rằng đó là điều không chắc chắn nhất, thì hãy nghĩ đến việc làm phiền nó. Hãy xem xét trường hợp riêng biệt cho đơn giản. Lấy từ một điểm và thêm nó vào một điểm khác như sau:
Δp
p′i=p−Δp
p′j=p+Δp
Bây giờ, hãy xem cách thay đổi entropy:
Điều này có nghĩa là bất kỳ sự xáo trộn nào từ phân phối đồng đều đều làm giảm entropy (độ không đảm bảo). Để hiển thị tương tự trong trường hợp liên tục, về nguyên tắc, tôi phải sử dụng phép tính các biến thể hoặc thứ gì đó dọc theo dòng này, nhưng về nguyên tắc, bạn sẽ nhận được loại kết quả tương tự.
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
CẬP NHẬT 2: Giá trị trung bình của biến ngẫu nhiên thống nhất là một biến ngẫu nhiên và đó là từ phân phối Bates . Từ CLT, chúng ta biết rằng phương sai của biến ngẫu nhiên mới này co lại thành . Vì vậy, sự không chắc chắn về vị trí của nó phải giảm đi khi tăng : chúng ta càng ngày càng chắc chắn rằng một con mèo ở giữa. Biểu đồ tiếp theo và mã MATLAB tiếp theo của tôi cho thấy cách entropy giảm từ 0 cho (phân phối đồng đều) xuống . Tôi đang sử dụng thư viện phân phối31 ở đây.nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'