Khi nào tôi nên lo lắng về nghịch lý Jeffreys-Lindley trong lựa chọn mô hình Bayes?


12

Tôi đang xem xét một không gian rộng lớn (nhưng hữu hạn) của các mô hình có độ phức tạp khác nhau mà tôi khám phá bằng cách sử dụng RJMCMC . Ưu tiên trên vectơ tham số cho mỗi mô hình là khá nhiều thông tin.

  1. Trong trường hợp nào (nếu có) tôi có nên lo lắng về nghịch lý Jeffreys-Lindley thiên về các mô hình đơn giản hơn khi một trong những mô hình phức tạp hơn sẽ phù hợp hơn?

  2. Có ví dụ đơn giản nào nêu bật những vấn đề của nghịch lý trong lựa chọn mô hình Bayes không?

Tôi đã đọc một vài bài báo, cụ thể là blog của Xi'anblog của Andrew Gelman , nhưng tôi vẫn không hiểu lắm về vấn đề này.


1
Tôi nghĩ rằng có quá nhiều câu hỏi và chúng quá khác biệt để được trả lời một cách hiệu quả ở đây.
jaradniemi

Cảm ơn phản hồi, @jaradniemi, tôi đã xóa câu hỏi "Có nên thực hiện thủ tục RJMCMC, trả về hiệu quả xác suất mô hình sau, ưu tiên các mô hình giống như DIC không?"
Jeff

Câu trả lời:


5

Xin lỗi vì không rõ ràng trên blog của tôi !

Lưu ý: Tôi đã cung cấp một số thông tin cơ bản về lựa chọn mô hình Bayes và nghịch lý Jeffreys-Lindley trong câu trả lời khác trên Cross đã được xác thực.

Nghịch lý Jeffreys-Lindley có liên quan đến sự lựa chọn mô hình Bayes ở chỗ khả năng cận biên trở nên vô nghĩa khi π là một σ biện pháp -finite (ví dụ, một biện pháp với khối lượng vô hạn) chứ không phải là một biện pháp xác suất. Lý do cho sự khó khăn này là khối lượng vô hạn làm cho π c π không thể phân biệt được với bất kỳ hằng số dương c . Cụ thể, yếu tố Bayes không thể được sử dụng và không nên được sử dụng khi một mô hình được ưu đãi với "phẳng" trước đó.

m(x)= =π(θ)f(x|θ)dθ
πσπcπc

Nghịch lý Jeffreys-Lindley ban đầu sử dụng phân phối bình thường làm ví dụ. Khi so sánh các mô hình x ~ N ( θ , 1 ) là yếu tố Bayes là B 12 = exp { - n ( ˉ x n ) 2 / 2 }

x~N(0,1)
x~N(θ,1)
Nó cũng được định nghĩa khiπlà một thích hợp trước nhưng nếu bạn mất một bình thường trướcN(0,τ2)trênθvà đểτđi đến vô cùng, mẫu số đi vào bằng không đối với bất kỳ giá trị của ˉ x nkhác nhau từ zero và bất kỳ giá trị nào củan. (Trừ khiτncó liên quan, nhưng điều này trở nên phức tạp hơn nữa!) Nếu thay vào đó bạn sử dụng trực tiếpπ(θ)=cclà một hằng số nhất thiết tùy ý, các yếu tố BayesB
B12= =điểm kinh nghiệm{-n(x¯n)2/2}-+điểm kinh nghiệm{-n(x¯n-θ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτn
π(θ)= =c
c sẽ là B 12 = exp { - n ( ˉ x n ) 2 / 2 }B12 do đó phụ thuộc trực tiếp vàoc.
B12= =điểm kinh nghiệm{-n(x¯n)2/2}c-+điểm kinh nghiệm{-n(x¯n-θ)2/2}dθ= =điểm kinh nghiệm{-n(x¯n)2/2}c2π/n
c

Bây giờ, nếu các linh mục của bạn có nhiều thông tin (và do đó thích hợp), không có lý do gì cho nghịch lý Jeffreys-Lindley xảy ra. Với số lượng quan sát đủ, yếu tố Bayes sẽ liên tục chọn mô hình tạo dữ liệu. (Hay chính xác hơn là mô hình trong bộ sưu tập các mô hình được xem xét để lựa chọn mô hình gần nhất với mô hình "thật" đã tạo ra dữ liệu.)


2
Rất cám ơn câu trả lời rất chi tiết của bạn, Xi'an! Blog của bạn rất rõ ràng (tôi đã học được rất nhiều từ nó) Tôi chỉ hơi chậm hiểu vấn đề đặc biệt này!
Jeff

Trên thực tế, blog của tôi hoạt động với các giả định rất khác nhau về nền tảng và điều kiện tiên quyết, vì vậy đôi khi nó không rõ ràng và nhiều độc giả!
Tây An
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.