Hiểu về liên hợp Beta trước khi suy luận Bayes về tần suất


11

Sau đây là một đoạn trích từ Giới thiệu về Thống kê Bayes của Bolstad .

Tôi đang đọc t

Đối với tất cả các chuyên gia của bạn ngoài kia, điều này có thể là tầm thường nhưng tôi không hiểu làm thế nào tác giả kết luận rằng chúng ta không phải thực hiện bất kỳ tích hợp nào để tính xác suất sau cho một số giá trị của . Tôi hiểu biểu thức thứ hai là tỷ lệ và nơi tất cả các thuật ngữ xuất phát ( khả năng x Ưu tiên) . Hơn nữa, tôi hiểu, chúng ta không phải lo lắng về mẫu số vì chỉ có tử số là tỷ lệ thuận. Nhưng chuyển sang phương trình thứ ba , không phải chúng ta đã quên về mẫu số của Quy tắc Bayes sao? Nó đã đi đâu? Và giá trị được tính bởi các hàm Gamma, đó không phải là hằng số sao? Không hằng số hủy bỏ trong định lý Bayes?π


5
Chỉ có một hằng số khả dĩ, cụ thể là hằng số làm cho hàm có mật độ xác suất.
Tây An

Câu trả lời:


10

Vấn đề là chúng ta biết tỷ lệ sau là gì và điều đó xảy ra đến mức chúng ta không cần thực hiện tích hợp để lấy mẫu số (không đổi), bởi vì chúng ta nhận ra rằng phân phối có hàm mật độ xác suất tỷ lệ với (chẳng hạn như sau) là bản phân phối beta. Vì hằng số chuẩn hóa cho bản beta beta như vậy là , chúng tôi nhận được bản pdf sau mà không cần tích hợp. Và đúng vậy, hằng số chuẩn hóa trong định lý Bayes là một hằng số (được cung cấp dữ liệu quan sát và giả định trước) giống như hằng số chuẩn hóa cho mật độ sau.Γ ( α + β )xα1×(1x)β1Γ(α+β)Γ(α)Γ(β)


8

Các thiết lập

Bạn có mô hình này: Mật độ là f(p)=1

pbeta(α,β)x|pbinomial(n,p)
f(p)=1B(α,β)pα1(1p)β1
1
g(x|p)=(nx)px(1p)nx
1B(α,β)=Γ(α+β)Γ(α)Γ(β).

Phiên bản ngầm

Hiện nay. Phân bố sau tỷ lệ thuận với trước nhân với khả năng . Chúng ta có thể bỏ qua các hằng số (tức là những thứ không ), mang lại: g p h ( pfgp

h(p|x)f(p)g(p|x)=pα1(1p)β1pxpnx=pα+x1(1p)β+nx1.

Điều này có 'hình dạng' của phân phối beta với các tham số và và chúng tôi biết hằng số chuẩn hóa tương ứng cho phân phối beta với các tham số đó là: . Hoặc, về mặt chức năng gamma, Nói cách khác, chúng ta có thể làm tốt hơn một chút so với mối quan hệ tỷ lệ mà không cần thêm bất kỳ công việc nào và đi thẳng đến đẳng thức: α+xβ+nx1/B(α+x,β+nx)

1B(α+x,β+nx)=Γ(n+α+β)Γ(α+x)Γ(β+nx).
h(p|x)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1.

Vì vậy, người ta có thể sử dụng kiến ​​thức về cấu trúc của bản phân phối beta để dễ dàng khôi phục một biểu thức cho hậu thế, thay vì phải trải qua một số tích hợp lộn xộn và tương tự.

Nó sắp xếp thành một hậu thế đầy đủ bằng cách hủy bỏ các hằng số chuẩn hóa của phân phối chung, điều này có thể gây nhầm lẫn.

Phiên bản rõ ràng

Bạn cũng có thể nghiền mọi thứ theo thủ tục, có thể rõ ràng hơn.

Nó không thực sự dài hơn nhiều. Lưu ý rằng chúng ta có thể biểu thị phân phối chung là và phân phối biên của là

f(p)g(x|p)=1B(α,β)(nx)pα+x1(1p)β+nx1
x
01f(p)g(x|p)dp=1B(α,β)(nx)01pα+x1(1p)β+nx1dp=1B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+nx)

Vì vậy, chúng ta có thể biểu thị hậu thế bằng định lý Bayes bằng giống như những gì chúng ta đã nhận trước đây.

h(p|x)=f(p)g(x|p)01f(p)g(x|p)dp=1B(α,β)(nx)pα+x1(1p)β+nx11B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+n)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1

7

Nhận xét chung

Để làm cho câu trả lời được đưa ra bởi @ Bjorn rõ ràng hơn một chút và đồng thời tổng quát hơn, chúng ta nên nhớ rằng chúng ta đã đến Định lý Bayes từ

p(θ|X)×p(X)=p(X,θ)=p(X|θ)×p(θ)

p(θ|X)=p(X|θ)×p(θ)p(X) (Bayes thereom)

Trong đó đại diện cho dữ liệu được quan sát và tham số chưa biết của chúng tôi, chúng tôi muốn đưa ra các suy luận xác suất về - trong trường hợp câu hỏi, tham số là tần số không xác định . Bây giờ chúng ta đừng lo lắng liệu chúng ta đang nói về vectơ hay vô hướng để giữ cho nó đơn giản.Xθπ

Marginalization trong trường hợp liên tục dẫn đến

p(X)=+p(X,θ)dθ=+p(X|θ)×p(θ)dθ

trong đó phân phối chung bằng với như chúng ta đã thấy ở trên. Đó là một hằng số kể từ sau khi 'tích hợp' tham số, nó chỉ phụ thuộc vào các số hạng không đổi .p(X,θ)likelihood×prior

Do đó, chúng ta có thể định dạng lại Định lý Bayes như

p(θ|X)=Const.×p(X|θ)×p(θ) vớiConst.=1p(X)=1p(X|θ)×p(θ)dθ

và do đó đi đến hình thức tỷ lệ thông thường của Định lý Bayes .

Áp dụng cho vấn đề một tay

Bây giờ chúng tôi đã sẵn sàng chỉ cần cắm vào những gì chúng tôi biết vì trong trường hợp câu hỏi có dạnglikelihood×prior

p(X,θ)=p(X|θ)×p(θ)=Aθa+y1(1θ)b+ny1=Aθa1(1θ)b1

trong đó , và trong đó thu thập các thuật ngữ không đổi từ khả năng nhị thức và beta trước.a=a+yb=b+nyA=1B(a,b)(ny)

Bây giờ chúng ta có thể sử dụng câu trả lời do @ Bjorn đưa ra để thấy rằng câu này tích hợp với hàm Beta với tập hợp các số hạng không đổi sao choB(a,b)A

p(X)=A01θa1(1θ)b1dθ=AB(a,b)

p(θ|X)=Aθa1(1θ)b1AB(a,b)=θa1(1θ)b1B(a,b)

Lưu ý rằng mọi thuật ngữ không đổi trong phân phối chung sẽ luôn bị loại bỏ, vì nó sẽ xuất hiện trong người đề cử mẫu số cùng một lúc (xem câu trả lời được đưa ra bởi @jtobin) vì vậy chúng tôi thực sự không phải bận tâm.

Do đó, chúng tôi nhận ra rằng phân phối sau của chúng tôi thực tế là phân phối beta , nơi chúng tôi có thể chỉ cần cập nhật các tham số trước đó và để đến sau. Đây là lý do tại sao beta phân phối trước được gọi là liên hợp trước .b = b + n - ya=a+yb=b+ny


Lý do này tương tự như phiên bản ngầm của jtobin. Chúng tôi chỉ xem xét các phần của thời gian có khả năng trước đó có chứa tham số và thu thập mọi thứ khác trong hằng số chuẩn hóa. Do đó, chúng tôi xem việc tích hợp chỉ là bước cuối cùng hợp pháp, bởi vì các hằng số hủy bỏ như jtobin đã thể hiện trong phiên bản rõ ràng của anh ấy.
viết
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.