Xin lỗi vì không rõ ràng trên blog của tôi !
Lưu ý: Tôi đã cung cấp một số thông tin cơ bản về lựa chọn mô hình Bayes và nghịch lý Jeffreys-Lindley trong câu trả lời khác trên Cross đã được xác thực.
Nghịch lý Jeffreys-Lindley có liên quan đến sự lựa chọn mô hình Bayes ở chỗ khả năng cận biên
trở nên vô nghĩa khi π là một σ biện pháp -finite (ví dụ, một biện pháp với khối lượng vô hạn) chứ không phải là một biện pháp xác suất. Lý do cho sự khó khăn này là khối lượng vô hạn làm cho π và c π không thể phân biệt được với bất kỳ hằng số dương c . Cụ thể, yếu tố Bayes không thể được sử dụng và không nên được sử dụng khi một mô hình được ưu đãi với "phẳng" trước đó.
m ( x ) = ∫π( θ ) f( X | q )d θ
πσπc πc
Nghịch lý Jeffreys-Lindley ban đầu sử dụng phân phối bình thường làm ví dụ. Khi so sánh các mô hình và x ~ N ( θ , 1 ) là yếu tố Bayes là
B 12 = exp { - n ( ˉ x n ) 2 / 2 }
x ∼ N( 0 , 1 )
x ∼ N( θ , 1 )
Nó cũng được định nghĩa khi
πlà một thích hợp trước nhưng nếu bạn mất một bình thường trước
N(0,τ2)trên
θvà để
τđi đến vô cùng, mẫu số đi vào bằng không đối với bất kỳ giá trị của
ˉ x nkhác nhau từ zero và bất kỳ giá trị nào của
n. (Trừ khi
τvà
ncó liên quan, nhưng điều này trở nên phức tạp hơn nữa!) Nếu thay vào đó bạn sử dụng trực tiếp
π(θ)=cmà
clà một hằng số nhất thiết tùy ý, các yếu tố Bayes
BB12= điểm kinh nghiệm{ - n ( x¯n)2/ 2 }∫+ ∞- ∞điểm kinh nghiệm{ - n ( x¯n- θ )2/ 2}π( θ )d θ
πN( 0 , τ2)θτx¯nnτnπ( θ ) = c
c sẽ là
B 12 = exp { - n ( ˉ x n ) 2 / 2 }B12
do đó phụ thuộc trực tiếp vào
c.
B12= điểm kinh nghiệm{ - n ( x¯n)2/ 2}c ∫+ ∞- ∞điểm kinh nghiệm{ - n ( x¯n- θ )2/ 2}d θ= điểm kinh nghiệm{- n ( x¯n)2/ 2 }c 2 π/ n----√
c
Bây giờ, nếu các linh mục của bạn có nhiều thông tin (và do đó thích hợp), không có lý do gì cho nghịch lý Jeffreys-Lindley xảy ra. Với số lượng quan sát đủ, yếu tố Bayes sẽ liên tục chọn mô hình tạo dữ liệu. (Hay chính xác hơn là mô hình trong bộ sưu tập các mô hình được xem xét để lựa chọn mô hình gần nhất với mô hình "thật" đã tạo ra dữ liệu.)