Làm thế nào để một bộ đồng phục trước dẫn đến cùng một ước tính từ khả năng tối đa và chế độ của hậu thế?


9

Tôi đang nghiên cứu các phương pháp ước tính điểm khác nhau và đọc rằng khi sử dụng ước tính MAP so với ML, khi chúng tôi sử dụng "thống nhất trước", các ước tính là giống hệt nhau. Ai đó có thể giải thích "đồng phục" trước là gì và đưa ra một số ví dụ (đơn giản) về thời điểm các công cụ ước tính MAP và ML sẽ giống nhau không?


4
@AndreSilva MAP = Tối đa một posteriori - chế độ của hậu thế
Glen_b -Reinstate Monica

Câu trả lời:


10

Nó là một phân phối đồng đều (liên tục hoặc rời rạc).

Xem thêm

http://en.wikipedia.org/wiki/Point_estimation#Bayesian_point-estimation

http://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation#Mô tả

Nếu bạn sử dụng đồng phục trước trên một bộ có chứa MLE, thì MAP = MLE luôn. Lý do cho điều này là theo cấu trúc trước này, phân phối sau và khả năng tỷ lệ thuận.


2
Đây là một câu trả lời tốt trong quan điểm của tôi. Có thể đáng nói thêm rằng lý do phân phối sau và khả năng tỷ lệ thuận là do phân phối sau tự nó tỷ lệ thuận với sản phẩm của khả năng và trước đó. Khi ưu tiên có cùng giá trị ở mọi nơi, như trong phân phối đồng đều, thì phân phối sau chỉ đơn giản là tỷ lệ thuận với khả năng.
TooTone

1
@TooTone Tôi cũng sẽ thêm một điểm về sự không phù hợp.
Stéphane Laurent

Đồng phục trước có thể được xem là đưa ra một tập hợp người dùng hoặc xác suất bằng nhau cho mỗi lớp bạn đang cố gắng dự đoán. Ví dụ: nếu chúng ta có hai vấn đề về lớp và phân phối cho các ví dụ tích cực là 10% (nghĩa là xác suất trước là 0,1), chúng ta có thể đặt đồng phục trước cho các trường hợp dương là 0,5 để khắc phục hiệu ứng mất cân bằng của bản gốc phân phối.
soufanom

2
Lưu ý, dưới đồng phục trước khi MAP và ML va chạm chỉ khi đồng phục trước đó vượt quá các giá trị hợp lệ của tham số. Cụ thể, nếu tham số là liên tục và trước đó chỉ thống nhất ở [0, 1] thì nó sẽ không giữ được.
Royi

@Drazick: nhận xét tốt. Nó thực sự "tệ" hơn thế, cụ thể là (giá trị của MAP) phụ thuộc vào sự lựa chọn biện pháp thống trị, như được giải thích trong bài viết này của Druihlet và Marin .
Tây An

1

P(D|θ)P(θ)P(θ)


(-1) Ước tính khả năng tối đa (của một tham số) là ước tính của một tham số, không phải là 'ước tính về sự xuất hiện của sự kiện đã cho'. Phần còn lại của câu trả lời cũng hơi bối rối / khó hiểu, ví dụ, không rõ 'ý nghĩa và phương sai' đề cập đến điều gì.
Juho Kokkala

@Tim, bạn có thể cung cấp một bằng chứng (hoặc phác thảo) cho thấy The mean and variance estimate of MAP will be same as mean and variance estimate of MLE? Cảm ơn bạn
tò mò_dan

p(θ|X)p(X|θ)p(θ)p(θ)1p(θ|X)p(X|θ)×1

cảm ơn bạn, @Tim --- Tôi có thể thấy lý do tại sao điều này đúng với giá trị tối đa / mong đợi, nhưng đối với tôi, phương sai sẽ không giống nhau
tò mò_dan

@cantly_dan phương sai của cái gì? Điều này áp dụng cho bất kỳ tham số nào bạn ước tính.
Tim
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.