Tại sao giá trị trung bình số học nhỏ hơn trung bình phân phối trong phân phối log-log thông thường?


13

Vì vậy, tôi có một quá trình ngẫu nhiên tạo ra các biến ngẫu nhiên được phân phối thông thường . Đây là hàm mật độ xác suất tương ứng:X

Hình biểu diễn hàm mật độ xác suất logic

Tôi muốn ước tính phân phối của một vài khoảnh khắc của phân phối ban đầu đó, giả sử khoảnh khắc thứ nhất: trung bình số học. Để làm như vậy, tôi đã rút ra 100 biến ngẫu nhiên 10000 lần để tôi có thể tính toán 10000 ước tính trung bình số học.

Có hai cách khác nhau để ước tính ý nghĩa đó (ít nhất, đó là điều tôi hiểu: tôi có thể sai):

  1. bằng cách tính đơn giản số học có nghĩa là cách thông thường:
    X¯= =ΣTôi= =1NXTôiN.
  2. hoặc bằng cách ước tính đầu tiên và \ mu từ phân phối bình thường cơ bản: \ mu = \ sum_ {i = 1} ^ N \ frac {\ log (X_i)} {N} \ quad \ sigma ^ 2 = \ sum_ {i = 1} ^ N \ frac {\ left (\ log (X_i) - \ mu \ right) ^ 2} {N} và sau đó có nghĩa là \ bar {X} = \ exp (\ mu + \ frac {1} {2} \ sigma ^ 2).L L = N Σ i = 1 log ( X i )σμˉ X =exp(μ+1
    μ= =ΣTôi= =1Nđăng nhập(XTôi)Nσ2= =ΣTôi= =1N(đăng nhập(XTôi)-μ)2N
    X¯= =điểm kinh nghiệm(μ+12σ2).

Vấn đề là các phân phối tương ứng với từng ước tính này khác nhau một cách có hệ thống:

Hai công cụ ước tính đưa ra các phân phối khác nhau như trong hình.

Giá trị trung bình "đơn giản" (được biểu thị dưới dạng đường đứt nét màu đỏ) cung cấp các giá trị thường thấp hơn giá trị xuất phát từ dạng hàm mũ (đường thẳng màu lục). Mặc dù cả hai phương tiện đều được tính toán trên cùng một bộ dữ liệu. Xin lưu ý rằng sự khác biệt này là có hệ thống.

Tại sao các phân phối này không bằng nhau?


thông số thực sự của bạn cho và gì? σμσ
Christoph Hanck

σ = 1,5μ= =3 và , nhưng xin lưu ý rằng tôi quan tâm đến việc ước tính các tham số này, do đó phương pháp Monte-Carlo thay vì tính toán điều từ các số liệu thô này. σ= =1,5
JohnW

chắc chắn, đây là để nhân rộng kết quả của bạn.
Christoph Hanck

4
Thật thú vị, hiện tượng này không liên quan gì đến lognormality. Cho các số dương với logarit , người ta biết rõ trung bình số học của chúng (AM) không bao giờ nhỏ hơn trung bình hình học (GM) . Theo hướng khác, AM không bao giờ lớn hơn GM nhân với trong đó là phương sai của . Do đó, đường cong màu đỏ chấm phải nằm ở bên trái của đường cong màu xanh lá cây cho bất kỳ phân phối cha mẹ nào (mô tả các số ngẫu nhiên dương). y ix i / n exp ( y i / n ) exp ( s 2 y / 2 ) s 2 y y ixTôiyTôiΣxTôi/nđiểm kinh nghiệm(ΣyTôi/n)điểm kinh nghiệm(Sy2/2)Sy2yTôi
whuber

Nếu phần lớn giá trị trung bình xuất phát từ xác suất rất nhỏ của số lượng lớn, trung bình số học mẫu hữu hạn có thể đánh giá thấp trung bình dân số với xác suất cao. (Theo dự đoán, nó không thiên vị, nhưng có xác suất lớn về đánh giá thấp và xác suất nhỏ so với ước tính lớn.) Câu hỏi này cũng có thể liên quan đến câu hỏi này: stats.stackexchange.com/questions/214733/ tựa
Matthew Gunn

Câu trả lời:


12

Hai công cụ ước tính mà bạn đang so sánh là phương pháp ước tính khoảnh khắc (1.) và MLE (2.), xem tại đây . Cả hai đều nhất quán (vì vậy đối với lớn , chúng theo một nghĩa nào đó có khả năng gần với giá trị thực ).exp [ μ + 1 / 2 σ 2 ]Nđiểm kinh nghiệm[μ+1/2σ2]

Đối với công cụ ước tính MM, đây là hệ quả trực tiếp của Định luật số lượng lớn, nói rằng . Đối với MLE, định lý ánh xạ liên tục ngụ ý rằng như và .exp[ μ +1/2 σ 2]pexp[μ+1/2σ2], μpμ σ 2pσ2X¯pE(XTôi)

điểm kinh nghiệm[μ^+1/2σ^2]pđiểm kinh nghiệm[μ+1/2σ2],
μ^pμσ^2pσ2

MLE, tuy nhiên, không thiên vị.

Trên thực tế, bất đẳng thức của Jensen cho chúng ta biết rằng, đối với nhỏ, MLE dự kiến ​​sẽ bị sai lệch lên trên (xem thêm phần mô phỏng bên dưới): và là (trong trường hợp sau, gần như , nhưng với độ lệch không đáng kể cho , vì công cụ ước lượng không thiên vị chia cho ) được biết đến là công cụ ước tính không thiên vị của các tham số của phân phối bình thường và (Tôi sử dụng mũ để biểu thị công cụ ước tính).L σ 2 N = 100 N - 1 L σ 2Nμ^σ^2N= =100N-1μσ2

Do đó, . Vì hàm mũ là hàm lồi, điều này hàm ý rằng E(μ^+1/2σ^2)μ+1/2σ2

E[điểm kinh nghiệm(μ^+1/2σ^2)]>điểm kinh nghiệm[E(μ^+1/2σ^2)]điểm kinh nghiệm[μ+1/2σ2]

Hãy thử tăng lên một số lớn hơn, điều này sẽ tập trung vào cả hai phân phối xung quanh giá trị thực.N= =100

Xem hình minh họa Monte Carlo này với in R:N= =1000

nhập mô tả hình ảnh ở đây

Được tạo nên bởi:

N <- 1000
reps <- 10000

mu <- 3
sigma <- 1.5
mm <- mle <- rep(NA,reps)

for (i in 1:reps){
  X <- rlnorm(N, meanlog = mu, sdlog = sigma)
  mm[i] <- mean(X)

  normmean <- mean(log(X))
  normvar <- (N-1)/N*var(log(X))
  mle[i] <- exp(normmean+normvar/2)
}
plot(density(mm),col="green",lwd=2)
truemean <- exp(mu+1/2*sigma^2)
abline(v=truemean,lty=2)
lines(density(mle),col="red",lwd=2,lty=2)

> truemean
[1] 61.86781

> mean(mm)
[1] 61.97504

> mean(mle)
[1] 61.98256

Chúng tôi lưu ý rằng mặc dù cả hai bản phân phối hiện tại (ít nhiều) tập trung vào giá trị thực , MLE, như thường lệ, là hiệu quả hơn.điểm kinh nghiệm(μ+σ2/2)

Người ta thực sự có thể chỉ ra một cách rõ ràng rằng điều này phải như vậy bằng cách so sánh các phương sai tiệm cận. Câu trả lời CV rất hay này cho chúng ta biết rằng phương sai tiệm cận của MLE là trong khi đó là công cụ ước tính MM, bởi một ứng dụng trực tiếp của CLT được áp dụng cho các giá trị trung bình mẫu là phương sai của phân phối log-normal, Cái thứ hai lớn hơn cái thứ nhất vì dưới dạngvà .

Vt= =(σ2+σ4/2)điểm kinh nghiệm{2(μ+12σ2)},
điểm kinh nghiệm{2(μ+12σ2)}(điểm kinh nghiệm{σ2}-1)
điểm kinh nghiệm{σ2}>1+σ2+σ4/2,
điểm kinh nghiệm(x)= =ΣTôi= =0xTôi/Tôi!σ2>0

Để thấy rằng MLE thực sự thiên vị cho nhỏ , tôi lặp lại mô phỏng cho và 50.000 lần lặp lại và thu được độ lệch mô phỏng như sau:NN <- c(50,100,200,500,1000,2000,3000,5000)

nhập mô tả hình ảnh ở đây

Chúng tôi thấy rằng MLE thực sự thiên vị nghiêm trọng cho nhỏ . Tôi là một chút ngạc nhiên về hành vi hơi thất thường của sự thiên vị của các ước lượng MM là một hàm của . Xu hướng mô phỏng cho nhỏ đối với MM có thể do các ngoại lệ ảnh hưởng đến công cụ ước tính MM không đăng nhập nhiều hơn MLE. Trong một lần chạy mô phỏng, ước tính lớn nhất hóa ra làNNN= =50

> tail(sort(mm))
[1] 336.7619 356.6176 369.3869 385.8879 413.1249 784.6867
> tail(sort(mle))
[1] 187.7215 205.1379 216.0167 222.8078 229.6142 259.8727 

À được rồi. Nó thực sự không xảy ra với tôi rằng một phương pháp có thể hiệu quả hơn phương pháp khác được cung cấp cùng một dữ liệu. Vì vậy, tôi có thể nói rằng giải pháp MLE hội tụ nhanh hơn đối với so với phương pháp khác nếu tôi hiểu đúng. Cảm ơn! N
JohnW

1
Tôi đã thực hiện một chỉnh sửa nhỏ về sự thiên vị. Đối với xu hướng thực sự là tiêu cực đối với các ước lượng MM, nhưng điều đó không có vẻ như một kết quả tổng quát, xem cốt truyện cho thiên vị như một chức năng của . N= =100N
Christoph Hanck

2
Chà, tôi cũng ngạc nhiên khi có sự khác biệt lớn như vậy giữa hai phương pháp, tuy nhiên ví dụ này hoàn toàn hoàn hảo để chứng minh tại sao "chỉ là công cụ trung bình" có thể là khủng khiếp!
JohnW

1
@ John, tôi đã thêm một chút giải thích phân tích về lý do tại sao MLE có phương sai nhỏ hơn.
Christoph Hanck

1
NN
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.