Sự khác biệt trong ước tính Bayes và ước tính khả năng tối đa là gì?


50

Hãy giải thích cho tôi sự khác biệt trong ước tính Bayes và ước tính khả năng tối đa?


7
Phụ thuộc vào loại ước tính Bayes. BẢN ĐỒ? Hậu thế có nghĩa là gì? Kết quả của việc giảm thiểu rủi ro Bayes cho một số chức năng mất? Mỗi cái trên? Thứ gì khác?
Glen_b

2
Tôi đã trả lời câu hỏi này, hoặc một tương tự, ở đây. stats.stackexchange.com/questions/73439/ Từ Bạn đang hiểu vấn đề gì? Thêm chi tiết sẽ giúp chúng tôi đưa ra một câu trả lời tốt hơn.
Phục hồi

1
Từ sổ tay tham chiếu STAN: "Nếu ưu tiên là đồng nhất, chế độ sau tương ứng với ước tính khả năng tối đa (MLE) của các tham số. Nếu trước đó không đồng nhất, chế độ sau được gọi là ước tính tối đa (MAP). "
Neerav

@Neerav đó là câu trả lời tôi cần. thx
javadba

Một câu trả lời có thể hữu ích cho trường hợp cụ thể của Bayesian tối đa một ước tính posteriori được đưa ra ở đây .
pglpm

Câu trả lời:


68

Đó là một câu hỏi rất rộng và câu trả lời của tôi ở đây chỉ bắt đầu làm trầy xước bề mặt một chút. Tôi sẽ sử dụng quy tắc của Bayes để giải thích các khái niệm.

Giả sử rằng một tập hợp các thông số phân bố xác suất, , giải thích tốt nhất các tập dữ liệu D . Chúng tôi có thể muốn để ước lượng các thông số q với sự giúp đỡ của Quy tắc của Bayes:θDθ

p(θ|D)=p(D|θ)p(θ)p(D)

posterior=likelihoodpriorevidence

Các giải thích sau:

Ước tính khả năng tối đa

θp(D|θ)θ^θ^

p(θ)p(D)p(θ)θ

Ước tính Bayes

p(θ|D)θ

θp(θ|D)θθθ

evidence

p(D)=θp(D|θ)p(θ)dθ

Điều này dẫn đến khái niệm 'linh mục liên hợp' trong ước tính Bayes. Đối với một chức năng khả năng nhất định, nếu chúng ta có lựa chọn về cách chúng ta thể hiện niềm tin trước đây, chúng ta phải sử dụng hình thức đó cho phép chúng ta thực hiện tích hợp được hiển thị ở trên. Ý tưởng về các linh mục liên hợp và cách chúng được thực hiện trên thực tế được COOlSerdash giải thích khá rõ trong bài đăng này .


1
Bạn sẽ giải thích thêm về điều này? : "mẫu số trong quy tắc của Bayes, tức là bằng chứng."
Daniel

1
Tôi mở rộng câu trả lời của mình.
Zhubarb

@Berkan trong phương trình ở đây, P (D | theta) là khả năng. Tuy nhiên, hàm khả năng được định nghĩa là P (theta | D), đó là hàm của tham số, dữ liệu đã cho. Tôi luôn bối rối về điều này. Thuật ngữ có khả năng đề cập đến những điều khác nhau ở đây? Bạn có thể giải thích về điều đó? Cảm ơn rất nhiều!
zesla

1
@zesla nếu sự hiểu biết của tôi là chính xác, P (theta | D) không phải là khả năng - đó là hậu thế. Đó là, phân phối theta có điều kiện trên nguồn dữ liệu bạn có mẫu. Khả năng như bạn đã nói: P (D | theta) - phân phối dữ liệu của bạn như được tham số hóa bởi theta, hoặc có lẽ trực quan hơn, khả năng xem những gì bạn thấy là một chức năng của theta. Điều đó có ý nghĩa? Mọi người khác: xin vui lòng sửa cho tôi nơi tôi sai.
viêm grisa

@zesla, lời giải thích được đưa ra bởi viêm grisa là chính xác.
Zhubarb

13

Tôi nghĩ rằng bạn đang nói về ước lượng điểm như trong suy luận tham số, để chúng ta có thể giả sử mô hình xác suất tham số cho cơ chế tạo dữ liệu nhưng không xác định được giá trị thực của tham số.

Ước tính khả năng tối đa đề cập đến việc sử dụng mô hình xác suất cho dữ liệu và tối ưu hóa chức năng khả năng chung của dữ liệu được quan sát qua một hoặc nhiều tham số. Do đó, người ta thấy rằng các tham số ước tính phù hợp nhất với dữ liệu được quan sát so với bất kỳ tham số nào khác trong không gian tham số. Lưu ý rằng các hàm khả năng như vậy không nhất thiết được xem là "có điều kiện" đối với các tham số vì các tham số không phải là biến ngẫu nhiên, do đó, có vẻ phức tạp hơn để hình dung khả năng của các kết quả khác nhau so sánh hai tham số khác nhau. Hóa ra đây là một cách tiếp cận triết học.

Ước tính Bayes nói chung hơn một chút vì chúng ta không nhất thiết phải tối đa hóa sự tương tự Bayes về khả năng (mật độ sau). Tuy nhiên, loại ước tính tương tự (hoặc ước tính chế độ sau) được xem là tối đa hóa xác suất của tham số sau có điều kiện dựa trên dữ liệu. Thông thường, ước tính của Bayes thu được theo cách như vậy hoạt động gần như chính xác như của ML. Sự khác biệt chính là suy luận Bayes cho phép một phương pháp rõ ràng để kết hợp thông tin trước.

Ngoài ra 'Lịch sử sử thi về khả năng tối đa làm cho việc đọc được chiếu sáng

http://arxiv.org/pdf/0804.2996.pdf


Bạn sẽ giải thích thêm về điều này? "Tuy nhiên, loại ước tính tương tự (hoặc ước tính chế độ sau) được xem là tối đa hóa xác suất của tham số sau có điều kiện dựa trên dữ liệu."
Daniel

Chế độ sau là một chút sai lầm bởi vì, với DF liên tục, giá trị được xác định rõ. Mật độ sau có liên quan đến khả năng trong trường hợp thường xuyên, ngoại trừ việc nó cho phép bạn mô phỏng các tham số từ mật độ sau. Thật thú vị, một người trực giác nhất nghĩ về "ý nghĩa sau" là ước tính điểm tốt nhất của tham số. Cách tiếp cận này thường được thực hiện và, đối với mật độ không đối xứng đối xứng, điều này tạo ra các khoảng tin cậy hợp lệ phù hợp với ML. Chế độ sau chỉ là giá trị tham số ở đỉnh của mật độ sau.
AdamO

Về "điều này tạo ra các khoảng tin cậy hợp lệ phù hợp với ML.": Nó thực sự phụ thuộc vào mô hình, phải không? Họ có thể nhất quán hoặc không ...
Daniel

1
Vấn đề của các giả định tham số cơ bản thúc đẩy một cuộc thảo luận về suy luận đầy đủ tham số so với bán tham số hoặc không tham số . Đó không phải là vấn đề ML vs Bayes và bạn không phải là người đầu tiên mắc lỗi đó. ML là một cách tiếp cận tham số đầy đủ, nó cho phép bạn ước tính một số điều mà SP hoặc NP không thể (và thường hiệu quả hơn khi có thể). Xác định chính xác mô hình xác suất trong ML chính xác giống như chọn chính xác trước và tất cả các thuộc tính độ mạnh (và các vấn đề độ nhạy) ngụ ý.
AdamO

BTW, ý kiến ​​của bạn đã đốt cháy câu hỏi này trong tâm trí của tôi. Bất kỳ ý kiến ​​về điều này? stats.stackexchange.com/questions/74164/ Mạnh
Daniel

2

Ước tính Bayes là suy luận Bayes trong khi MLE là một loại phương pháp suy luận thường xuyên.

f(x1,...,xn;θ)=f(θ;x1,...,xn)f(x1,...,xn)f(θ)likelihood=posteriorevidencepriorp(θ)=1/6

Sự thay thế của MLE trong suy luận Bayes được gọi là ước lượng tối đa của posteriori (viết tắt là MAP) và thực tế MLE là trường hợp đặc biệt của MAP trong đó ưu tiên là thống nhất, như chúng ta thấy ở trên và như đã nêu trong Wikipedia :

Từ quan điểm của suy luận Bayes, MLE là trường hợp đặc biệt tối đa ước tính posteriori (MAP) giả định phân phối thống nhất các tham số trước.

Để biết chi tiết, vui lòng tham khảo bài viết tuyệt vời này: MLE vs MAP: kết nối giữa Khả năng tối đa và Ước tính Posteriori tối đa .

Và một điểm khác biệt nữa là khả năng tối đa là dễ bị quá mức, nhưng nếu bạn áp dụng phương pháp Bayes thì vấn đề quá phù hợp có thể tránh được.


1
Một trong những điều thú vị về Bayes là bạn không bắt buộc phải tính toán bất kỳ ước tính điểm nào cả. Toàn bộ mật độ sau có thể là "ước tính" của bạn.
Frank Harrell

@FrankHarrell Thưa giáo sư Mitchell, bạn có thể vui lòng giúp tôi chỉnh sửa câu trả lời nếu tôi mắc một số sai lầm khủng khiếp ở đâu đó không? Cảm ơn rất nhiều!
Lerner Zhang

1
Tôi không có ý ám chỉ bạn đã phạm sai lầm.
Frank Harrell

@lerner: Tôi muốn cảnh báo chống lại việc xác định ước tính khả năng tối đa là một trường hợp cụ thể của ước tính tối đa a-posteriori (khi mức trước là không đổi): xem tại sao trong câu trả lời này .
pglpm
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.