Tại sao không sử dụng định lý Bayes theo hình thức


9

rất nhiều câu hỏi (như thế này ) về một số sự mơ hồ với công thức Bayes trong trường hợp liên tục.

p(θ|x)=p(x|θ)p(θ)p(x)

Thông thường, sự nhầm lẫn xuất phát từ thực tế là định nghĩa phân phối có điều kiện f(variable|parameter) được giải thích là f là chức năng của variable được cố định parameter .

Cùng với điều đó, có một nguyên tắc tương đương nói rằng khả năng có thể được viết như sau:

L(θ|x)=p(x|θ)

Vậy tại sao không sử dụng quy tắc Bayes cho các bản phân phối theo mẫu sau:

p(θ|x)=L(θ|x)p(θ)p(x)

nhấn mạnh rằng chúng ta đang đối phó với chức năng của θ cho dữ liệu quan sát được x , và rằng thuật ngữ tương ứng là khả năng (ít nhất, bắt đầu với L )?

Đây có phải là một vấn đề của truyền thống, hoặc có một cái gì đó cơ bản hơn trong thực hành này?


Ý nghĩa của gì? Tôi biết điều này như một xác suất. Nhưng trong trường hợp liên tục, tôi không thấy xác suất bạn đang nói về. p()
Sextus Empiricus

@MartijnWeterings, chức năng nên có giá trị phân bố xác suất trong tất cả các trường hợp ngoại trừ khi nó là "khả năng" của hình thức p ( x | q ) . Tui bỏ lỡ điều gì vậy? p()p(x|θ)
iot

Bạn có ý nghĩa gì bởi phân phối xác suất? Tích lũy, mật độ, vv?
Sextus Empiricus

1
Nó có thể giúp lùi lại và nhận ra rằng không có "biến" trong định lý Bayes, ít nhất là khi bạn sử dụng thuật ngữ này. Có điểm dữ liệu và có tham số mô hình. Theo nghĩa này, . Bạn gọi một sinh vật giống như P ( m o d e l | d a t a ) mà sau đó bạn gọi đó là khả năng. Nhưng nó không phải là. Vì vậy, tôi không chắc chắn nơi bạn sẽ đi với điều này. Và nói chung p ( x | y ) = p ( y | x )P(model|data)P(data)=P(data,model)=P(data|model)P(model)P(model|data) là vô nghĩa trong trường hợp x = d a t a y = m o d e l . x y thậm chí không có sự hỗ trợ tương tự. p(x|y)=p(y|x)p(x)=p(y)x=datay=model. xy
Peter Leopold

Câu trả lời:


6

Có hai kết quả cơ bản từ xác suất đang hoạt động trong định lý của Bayes. Một là cách viết lại hàm mật độ xác suất chung :

p(x,y)=p(x|y)p(y).

Cái còn lại là một công thức để tính toán hàm mật độ xác suất có điều kiện :

p(y|x)=p(x,y)p(x).

Định lý Bayes chỉ khâu hai thứ này lại với nhau:

p(θ|x)=p(x,θ)p(x)=p(x|θ)p(θ)p(x)

xθ

p(x,θ)=p(x|θ)p(θ),
L

Như đã nói, bạn sẽ thấy mọi người sử dụng, như ở đây hoặc ở đây .


θp(x|θ)θL(θ)=p(x|θ)θ^MLE=argmaxL(θ)x θ θ L ( )p(x|θ)xθθL()

8

Hàm khả năng chỉ tỷ lệ thuận với mật độ lấy mẫu, theo nghĩa là bạn có cho một số hằng số (mặc dù bạn nên lưu ý rằng khả năng là một hàm của tham số, không phải dữ liệu). Nếu bạn muốn sử dụng điều này trong biểu thức của bạn cho định lý Bayes thì bạn cần bao gồm hằng số tỷ lệ tương tự trong mẫu số:Lx(θ)=kp(x|θ)k>0

p(θ|x)=Lx(θ)p(θ)kp(x)=Lx(θ)p(θ)Lx(θ)p(θ) dθLx(θ)p(θ).

Thay vào đó, nếu bạn sử dụng công thức bạn đã đề xuất, thì bạn sẽ kết thúc với một hạt nhân có mật độ sau, nhưng nó có thể không tích hợp với một (và do đó nó không phải là mật độ chung).


2
Tôi thích câu trả lời của bạn, nhưng trong công thức gốc với được cố định (bối cảnh Bayes) cũng không phải là phân phối xác suất hợp lệ và cũng là một hệ số tỷ lệ không bằng 1. Vậy, tại sao bạn có nghĩ rằngx p ( x )p(x|θ)xp(x)k

1
p(x|θ)=Bin(x|n,θ)Lx(θ)=θx(1θ)nxk=(nx) , thường không bằng một.
Ben - Tái lập Monica

1
Vì vậy, quan điểm của bạn là có một quy ước rằng khả năng thường không có các hằng số không cần thiết và vì vậy phiên bản của iot có thể gây hiểu lầm cho các nhà thống kê?
garej

Mặc dù đó thực sự là một cách thông thường để đặt khả năng, nhưng vấn đề ở đây là hàm khả năng thường chỉ được xác định theo tỷ lệ, do đó không có gì đảm bảo rằng trong hoạt động trên. k=1
Ben - Tái lập Monica

Đây là lần đầu tiên tôi đọc rằng khả năng tỷ lệ thuận với mật độ. Đối với tôi, đây chỉ là một sự kéo dài và có thể sai. Vấn đề nằm ở thuật ngữ chồng chéo. Chúng ta không nên gọi mật độ là khả năng, theo quy tắc của Bayes, nhưng chúng ta tiếp tục làm điều đó.
nbro
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.