Tại các mô hình Bình thường và Binomial, Luôn luôn là phương sai sau ít hơn phương sai trước?


10

Hoặc những điều kiện đảm bảo rằng? Nói chung (và không chỉ các mô hình bình thường và nhị thức) tôi cho rằng lý do chính đã phá vỡ tuyên bố này là có sự không nhất quán giữa mô hình lấy mẫu và mô hình trước, nhưng còn gì nữa không? Tôi đang bắt đầu với chủ đề này, vì vậy tôi thực sự đánh giá cao các ví dụ dễ dàng

Câu trả lời:


9

Kể từ khi sau và chênh lệch trước trên thỏa mãn (với X biểu thị mẫu) var ( θ ) = E [ var ( θ | X ) ] + var ( E [ θ | X ] ) giả định tất cả số lượng tồn tại, bạn có thể mong đợi sau phương sai trung bình nhỏ hơn (tính bằng X ). Đây là trường hợp cụ thể khi phương sai sau không đổi trong XθX

var(θ)=E[var(θ|X)]+var(E[θ|X])
XX. Nhưng, như được hiển thị bởi câu trả lời khác, có thể có những nhận thức về phương sai sau lớn hơn, vì kết quả chỉ nằm trong dự đoán.

Trích dẫn từ Andrew Gelman,

Chúng tôi xem xét điều này trong chương 2 trong Phân tích dữ liệu Bayes , tôi nghĩ rằng trong một vài vấn đề bài tập về nhà. Câu trả lời ngắn gọn là, trong kỳ vọng, phương sai sau giảm khi bạn nhận được nhiều thông tin hơn, nhưng, tùy thuộc vào mô hình, trong trường hợp cụ thể, phương sai có thể tăng. Đối với một số mô hình như bình thường và nhị thức, phương sai sau chỉ có thể giảm. Nhưng hãy xem xét mô hình t với mức độ tự do thấp (có thể được hiểu là một hỗn hợp của các quy tắc với trung bình chung và phương sai khác nhau). nếu bạn quan sát một giá trị cực đoan, đó là bằng chứng cho thấy phương sai rất cao và thực sự phương sai sau của bạn có thể tăng lên.


@Xian, bạn có thể xem "câu trả lời" của tôi không, có vẻ mâu thuẫn với bạn không? Nếu Gelman và bạn nói điều gì đó về thống kê Bayes, tôi sẽ tin tưởng bạn hơn nhiều so với bản thân mình ...
Christoph Hanck

1
Không có xung đột giữa các câu trả lời của chúng tôi. Thậm chí còn có một bài tập trong BDA tương ứng với ví dụ của bạn, tức là tìm dữ liệu đặt phương sai Beta sau lớn hơn phương sai trước.
Tây An

Một câu hỏi tiếp theo thú vị sẽ là: các điều kiện đảm bảo sự hội tụ của phương sai thành 0 khi kích thước mẫu tăng.
Julien

8

Đây sẽ là một câu hỏi cho @ Xi'an hơn là một câu trả lời.

V(θ|y)=α1β1(α1+β1)2(α1+β1+1)=(α0+k)(nk+β0)(α0+n+β0)2(α0+n+β0+1),
nkα0,β0
V(θ)=α0β0(α0+β0)2(α0+β0+1)
n <- 10         
k <- 1
alpha0 <- 100
beta0 <- 20

theta <- seq(0.01,0.99,by=0.005)
likelihood <- theta^k*(1-theta)^(n-k) 
prior <- function(theta,alpha0,beta0) return(dbeta(theta,alpha0,beta0))
posterior <- dbeta(theta,alpha0+k,beta0+n-k)

plot(theta,likelihood,type="l",ylab="density",col="lightblue",lwd=2)

likelihood_scaled <- dbeta(theta,k+1,n-k+1)
plot(theta,likelihood_scaled,type="l",ylim=c(0,max(c(likelihood_scaled,posterior,prior(theta,alpha0,beta0)))),ylab="density",col="lightblue",lwd=2)
lines(theta,prior(theta,alpha0,beta0),lty=2,col="gold",lwd=2)
lines(theta,posterior,lty=3,col="darkgreen",lwd=2)
legend("top",c("Likelihood","Prior","Posterior"),lty=c(1,2,3),lwd=2,col=c("lightblue","gold","darkgreen"))

 > (postvariance <- (alpha0+k)*(n-k+beta0)/((alpha0+n+beta0)^2*(alpha0+n+beta0+1)))
[1] 0.001323005
> (priorvariance <- (alpha0*beta0)/((alpha0+beta0)^2*(alpha0+beta0+1)))
[1] 0.001147842

Do đó, ví dụ này cho thấy phương sai sau lớn hơn trong mô hình nhị thức.

Tất nhiên, đây không phải là phương sai sau dự kiến. Có phải đó là nơi khác biệt?

Con số tương ứng là

nhập mô tả hình ảnh ở đây


4
Minh họa hoàn hảo. Và không có sự khác biệt giữa các sự kiện rằng phương sai sau được nhận ra là lớn hơn phương sai trước đó và kỳ vọng là nhỏ hơn.
Tây An

1
Tôi đã cung cấp một liên kết đến câu trả lời này như một ví dụ tuyệt vời về những gì cũng đang được thảo luận ở đây . Kết quả này (phương sai đó đôi khi tăng khi dữ liệu được thu thập) mở rộng đến entropy.
Don Slowik
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.