Cái nào là khả năng tối đa tốt hơn hoặc khả năng cận biên và tại sao?


13

Trong khi thực hiện hồi quy nếu chúng ta đi theo định nghĩa từ: Sự khác biệt giữa khả năng một phần, khả năng hồ sơ và khả năng cận biên là gì?

rằng, Khả năng tối đa
Tìm β và tối đa hóa dữ liệu L (β, |).

Trong khi, Khả năng cận biên
Chúng tôi tích hợp từ phương trình khả năng bằng cách khai thác thực tế là chúng tôi có thể xác định phân phối xác suất của có điều kiện trên.

Đó là phương pháp tốt hơn để tối đa hóa và tại sao?

Câu trả lời:


14

Mỗi trong số đó sẽ cho kết quả khác nhau với một cách giải thích khác nhau. Những phát hiện đầu tiên trên cặp , θ đó là có khả năng nhất, trong khi những phát hiện thứ hai β là (nhẹ) có thể xảy ra nhất. Hãy tưởng tượng rằng bản phân phối của bạn trông như thế này:βθβ

    β=1β=2
θ=10.0 0.2 
θ=20.1 0.2 
θ=30.3 0.2 

Sau đó, khả năng câu trả lời tối đa là ( θ = 3 ), trong khi biên câu trả lời khả năng tối đa là β = 2 (từ đó, marginalizing trên θ , P ( β = 2 ) = 0,6 ).β=1θ=3β=2θP(β=2)=0.6

Tôi nói rằng, nói chung, khả năng cận biên thường là những gì bạn muốn - nếu bạn thực sự không quan tâm đến các giá trị của , thì bạn chỉ nên thu gọn chúng. Nhưng có lẽ trong thực tế các phương pháp này sẽ không mang lại kết quả rất khác nhau - nếu họ làm, sau đó nó có thể trỏ đến một số bất ổn tiềm ẩn trong giải pháp của bạn, ví dụ như nhiều chế độ với kết hợp khác nhau của β , θ rằng tất cả các dự đoán cho tương tự.θβθ


Tôi đã tìm thấy kết quả khác nhau cho các phương pháp khả năng tối đa / cận biên và do đó câu hỏi. Tôi sẽ nói rằng hai kết quả trong trường hợp của tôi đưa ra những cách hiểu khác nhau nhưng kết quả có thể.
Ankit Chiplunkar

5

Tôi đang vật lộn với câu hỏi này ngay bây giờ. Đây là một kết quả có thể hữu ích. Hãy xem xét mô hình tuyến tính

y=Xβ+ϵ,ϵN(0,σ2)

nơi βyRn,βRp,β là các thông số quan tâm. Khả năng chung làσ2

L(β,σ2)=(2πσ2)n/2exp(||yXβ||22σ2)

Tối ưu hóa năng suất chung

β^=X+y

σ^2=1n||r||2

nơi là pseudoinverse của Xr = y - X β là vector còn phù hợp. Lưu ý rằng trong σ 2 chúng ta có 1 / n thay vì độ-of-tự do quen thuộc điều chỉnh tỷ lệ 1 / ( n - p ) . Công cụ ước tính này được biết là sai lệch trong trường hợp mẫu hữu hạn.X+Xr=yXβ^σ^21/n1/(np)

Bây giờ giả sử thay vì tối ưu hóa trên cả σ 2 , chúng tôi tích hợp β ra và ước tính σβσ2β từ kết quả khả năng tích hợp:σ2

σ^2=maxσ2RpL(β,σ2)dβ

Sử dụng đại số tuyến tính cơ bản và công thức tích phân Gaussian, bạn có thể chỉ ra rằng

σ^2=1np||r||2

Điều này có mức độ tự do điều chỉnh làm cho nó không thiên vị và thường được ưa chuộng hơn so với ước tính ML chung.

Từ kết quả này, người ta có thể hỏi liệu có một cái gì đó vốn có lợi thế về khả năng tích hợp, nhưng tôi không biết bất kỳ kết quả chung nào trả lời câu hỏi đó. Sự đồng thuận dường như là ML tích hợp tốt hơn trong việc tính toán sự không chắc chắn trong hầu hết các vấn đề ước tính. Cụ thể, nếu bạn đang ước tính một đại lượng phụ thuộc vào các ước tính tham số khác (thậm chí là ngầm), thì việc tích hợp trên các tham số khác sẽ giải thích tốt hơn cho sự không chắc chắn của chúng.


1
Hay đấy. Tôi, tuy nhiên, một chút bối rối bởi thực tế là "tích hợp ra " sử dụng một phân phối biên không hợp lệ, cũng như bởi sự vắng mặt của bất kỳ biện minh rõ ràng cho việc sử dụng này (không đúng) biên so với bất kỳ khác. Bạn có suy nghĩ gì về những vấn đề này? β
whuber

1
@whuber tôi chia sẻ mối quan tâm của bạn và không có một câu trả lời sẵn sàng, nhưng lưu ý rằng khả năng bị thiệt thòi chỉ là một sau với một bộ đồng phục không đúng cách trước khi vào , vì vậy tôi nghĩ rằng đây có liên quan đến "quan Bayes" cách tiếp cận. Có một người không quan tâm khi một tham số như β có một phân phối trước không đúng cách, miễn là sau là khả tích. ββ
Paul

Trên thực tế, dựa trên bài đăng và bình luận trong đó, tôi nghĩ ML tích hợp, không phải ML cận biên, là thuật ngữ phù hợp cho những gì chúng tôi đang làm ở đây. Chỉnh sửa cho phù hợp.
Paul

1
+1 Tôi biết rằng tôi đến khá muộn cho bữa tiệc này nhưng không tích hợp các hiệu ứng cố định bằng cách đặt một bộ đồng phục không phù hợp trước chúng chính xác những gì REML làm, vì vậy bạn thực sự đã có được ước tính REML và điều chỉnh df này chính xác là Lý do ở đây rằng REML là tốt hơn cho các mẫu nhỏ hơn?
JLD

@Chaconne vâng, bài đăng này đã được thúc đẩy bằng cách cố gắng hiểu REML! Tôi (hầu như) không có giáo dục thống kê chính thức, vì vậy việc tạo ra điều này hoàn toàn mới đối với tôi.
Paul

4

ββθθθθθip(θi)θdataβ

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.