Kể từ khi các yếu tố xác suất X là f(x)dx, sự thay đổi của biến y=xσ+μ là tương đương với x=(y−μ)/σ, từ đâu từ
f(x)dx=f(y−μσ)d(y−μσ)=1σf(y−μσ)dy
theo sau đó mật độ của Y là
fY(y)=1σf(y−μσ).
Do đó, entropy của Y là
H(Y)=−∫∞−∞log(1σf(y−μσ))1σf(y−μσ)dy
mà khi thay đổi biến trở lại x=(y−μ)/σ, sản xuất
H(Y)=−∫∞−∞log(1σf(x))f(x)dx=−∫∞−∞(log(1σ)+log(f(x)))f(x)dx=log(σ)∫∞−∞f(x)dx−∫∞−∞log(f(x))f(x)dx=log(σ)+Hf.
Các tính toán này đã sử dụng các thuộc tính cơ bản của logarit, tính tuyến tính của tích hợp và thực tế là f(x)dx tích hợp với sự thống nhất (Định luật xác suất tổng).
Kết luận là
Entropy của Y=Xσ+μ là entropy của X cộng log(σ).
Nói cách, thay đổi một biến ngẫu nhiên không làm thay đổi entropy của nó (chúng ta có thể nghĩ về entropy như tùy thuộc vào giá trị của mật độ xác suất, nhưng không phải vào nơi những giá trị đó xảy ra), trong khi mở rộng quy mô một biến (trong đó, cho σ≥1 " kéo dài "hoặc" bôi "nó ra) làm tăng entropy của nó bằng log(σ). Điều này hỗ trợ trực giác rằng các phân phối entropy cao "lan rộng" hơn so với các phân phối entropy thấp.
μσ(μ,σ)μ=0σ=1.
log(f(x))=−12log(2π)−x2/2,
từ đâu
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
(μ,σ)logσ
H=12log(2π)+12+log(σ)=12log(2πeσ2)
như báo cáo của Wikipedia .