Ước tính MLE vs MAP, khi nào nên sử dụng?


13

MLE = Ước tính khả năng tối đa

MAP = Tối đa một posteriori

MLE trực quan / ngây thơ ở chỗ nó chỉ bắt đầu với xác suất quan sát được đưa ra tham số (tức là hàm khả năng) và cố gắng tìm tham số phù hợp nhất với quan sát . Nhưng nó không xem xét các kiến ​​thức trước.

MAP có vẻ hợp lý hơn vì nó có tính đến kiến ​​thức trước thông qua quy tắc Bayes.

Đây là một câu hỏi liên quan, nhưng câu trả lời không kỹ lưỡng. /signals/13174/differences-USE-maximum-likabilities-or-maximum-a-posteriori-for-deconvolution-d

Vì vậy, tôi nghĩ MAP tốt hơn nhiều. Có đúng không? Và khi nào tôi nên sử dụng cái nào?

Câu trả lời:


18

Nếu xác suất trước được đưa ra như một phần của thiết lập vấn đề, thì hãy sử dụng thông tin đó (tức là sử dụng MAP). Nếu không có thông tin trước được đưa ra hoặc giả định, thì MAP là không thể, và MLE là một cách tiếp cận hợp lý.


8
Đáng để thêm rằng MAP với các linh mục phẳng tương đương với việc sử dụng ML.
Tim

Cũng đáng chú ý là nếu bạn muốn một "thuận tiện" về mặt toán học trước, bạn có thể sử dụng một liên hợp trước, nếu một tồn tại cho tình huống của bạn.
đậu

8

Một Bayes sẽ đồng ý với bạn, một người thường xuyên sẽ không. Đây là một vấn đề về quan điểm, quan điểm và triết lý. Tôi nghĩ rằng nó có hại rất nhiều cho cộng đồng thống kê khi cố gắng tranh luận rằng một phương pháp luôn tốt hơn phương pháp kia. Nhiều vấn đề sẽ có các giải pháp Bayes và thường xuyên tương tự nhau miễn là Bayes không quá mạnh trước đó.


7
Nó không chỉ đơn giản là một vấn đề quan điểm. Có những tình huống nhất định trong đó một người ước tính là tốt hơn so với người khác.
Tom Minka

2
@TomMinka Tôi chưa bao giờ nói rằng không có tình huống nào một phương pháp tốt hơn phương pháp kia! Tôi chỉ đơn giản trả lời các tuyên bố chung của OP như "MAP có vẻ hợp lý hơn". Một tuyên bố như vậy tương đương với một tuyên bố rằng các phương pháp Bayes luôn tốt hơn, đó là một tuyên bố mà bạn và tôi dường như cả hai không đồng ý.
JSK

jok nói đúng Cách tiếp cận Bayes và thường xuyên là khác nhau về mặt triết học. Vì vậy, một người thường xuyên nghiêm ngặt sẽ thấy cách tiếp cận Bayes không thể chấp nhận được.
Michael R. Chernick 17/03/18

2

Giả sử bạn có thông tin chính xác trước, MAP sẽ tốt hơn nếu vấn đề có hàm mất một không trên ước tính. Nếu tổn thất không phải là số một (và trong nhiều vấn đề trong thế giới thực thì không phải vậy), thì điều đó có thể xảy ra khi MLE đạt được mức giảm dự kiến ​​thấp hơn. Trong những trường hợp này, tốt hơn hết là không giới hạn bản thân với MAP và MLE là hai lựa chọn duy nhất, vì cả hai đều là tối ưu.


Công cụ ước tính MAP nếu một tham số phụ thuộc vào tham số, trong khi mất "0-1" thì không. Trong các trích dẫn 0-1 bởi vì theo tính toán của tôi, tất cả các công cụ ước tính thường sẽ mất 1 với xác suất 1 và bất kỳ nỗ lực nào để xây dựng một phép tính gần đúng một lần nữa đều đưa ra vấn đề tham số
chàng trai

1
Theo quan điểm của tôi, tổn thất không một không phụ thuộc vào tham số hóa, do đó không có sự không nhất quán.
Tom Minka

0

Câu trả lời ngắn của @bean giải thích nó rất tốt. Tuy nhiên, tôi muốn chỉ ra phần 1.1 của bài viết Lấy mẫu Gibbs cho người không quen thuộc của Resnik và Hardisty , điều này sẽ đưa vấn đề đến chiều sâu hơn. Tôi đang viết vài dòng từ bài báo này với những sửa đổi rất nhỏ (Câu trả lời này lặp lại vài điều mà OP biết vì sự hoàn chỉnh)

MLE

Chính thức MLE tạo ra sự lựa chọn (của tham số mô hình) rất có thể tạo ra dữ liệu được quan sát.

BẢN ĐỒ

Một MAP ước tính là sự lựa chọn rất có thể được cung cấp cho dữ liệu quan sát. Trái ngược với MLE, ước tính MAP áp dụng Quy tắc của Bayes, để ước tính của chúng tôi có thể tính đến kiến ​​thức trước về những gì chúng tôi mong đợi các tham số của chúng tôi ở dạng phân phối xác suất trước.

Nắm lấy

Các ước tính của MLE và MAP đều cho chúng ta ước tính tốt nhất, theo các phiên bản tương ứng của chúng là "tốt nhất". Nhưng lưu ý rằng việc sử dụng một ước tính duy nhất - cho dù đó là MLE hay MAP - sẽ loại bỏ thông tin. Về nguyên tắc, tham số có thể có bất kỳ giá trị nào (từ miền); chúng ta có thể không có được ước tính tốt hơn nếu chúng ta tính toàn bộ phân phối, thay vì chỉ một giá trị ước tính duy nhất cho tham số? Nếu chúng ta làm điều đó, chúng ta sẽ sử dụng tất cả thông tin về tham số mà chúng ta có thể vắt từ dữ liệu được quan sát, X.

Vì vậy, với sản phẩm này, chúng tôi có thể không muốn sử dụng chúng. Ngoài ra, như đã được đề cập bởi bean và Tim, nếu bạn phải sử dụng một trong số chúng, hãy sử dụng MAP nếu bạn có trước. Nếu bạn không có linh mục, MAP sẽ giảm xuống MLE. Các linh mục liên hợp sẽ giúp giải quyết vấn đề một cách phân tích, nếu không thì sử dụng Gibbs Sampling.


-2

Nếu dữ liệu ít hơn và bạn có sẵn các linh mục - "GO FOR MAP". Nếu bạn có nhiều dữ liệu, MAP sẽ hội tụ thành MLE. Do đó, trong trường hợp có nhiều kịch bản dữ liệu, tốt hơn là thực hiện MLE thay vì MAP.


Nó không đơn giản.
Michael R. Chernick

@MichaelCécick Tôi có thể sai. Tôi đọc điều này ở trường học. Tôi yêu cầu bạn sửa cho tôi nơi tôi đã sai.
Heisenorms

Cách tiếp cận thường xuyên và cách tiếp cận Bayes khác nhau về mặt triết học. Phương pháp tần số ước tính giá trị của các tham số mô hình dựa trên việc lấy mẫu lặp lại. Cách tiếp cận Bayes coi tham số là một biến ngẫu nhiên. Vì vậy, trong phương pháp Bayes, bạn rút ra phân phối sau của tham số kết hợp phân phối trước với dữ liệu. MAP tìm kiếm đỉnh cao nhất của phân phối sau trong khi MLE ước tính tham số bằng cách chỉ nhìn vào chức năng khả năng của dữ liệu.
Michael R. Chernick 17/03/18

@MichaelCécick - Cảm ơn bạn đã đóng góp. Nhưng MAP không hoạt động như một MLE một khi chúng ta có dữ liệu đầy đủ. Nếu chúng ta phá vỡ biểu thức MAP, chúng ta cũng nhận được một thuật ngữ MLE. Với lượng dữ liệu lớn, thuật ngữ MLE trong MAP sẽ chiếm ưu thế trước đó.
Heisenorms

Nó phụ thuộc vào trước và số lượng dữ liệu. Họ có thể cho kết quả tương tự trong các mẫu lớn. Sự khác biệt là trong cách giải thích. Nhận xét của tôi có nghĩa là cho thấy nó không đơn giản như bạn làm. Với một lượng nhỏ dữ liệu, nó không chỉ đơn giản là chọn MAP nếu bạn có trước. Một lựa chọn kém trước có thể dẫn đến phân phối sau kém và do đó MAP kém.
Michael R. Chernick 18/03/18
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.