Tôi đang vật lộn với câu hỏi này ngay bây giờ. Đây là một kết quả có thể hữu ích. Hãy xem xét mô hình tuyến tính
y=Xβ+ϵ,ϵ∼N(0,σ2)
nơi và βy∈Rn,β∈Rp,β và là các thông số quan tâm. Khả năng chung làσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Tối ưu hóa năng suất chung
β^=X+y
σ^2=1n||r||2
nơi là pseudoinverse của X và r = y - X β là vector còn phù hợp. Lưu ý rằng trong σ 2 chúng ta có 1 / n thay vì độ-of-tự do quen thuộc điều chỉnh tỷ lệ 1 / ( n - p ) . Công cụ ước tính này được biết là sai lệch trong trường hợp mẫu hữu hạn.X+Xr=y−Xβ^σ^21/n1/(n−p)
Bây giờ giả sử thay vì tối ưu hóa trên cả và σ 2 , chúng tôi tích hợp β ra và ước tính σβσ2β từ kết quả khả năng tích hợp:σ2
σ^2=maxσ2∫RpL(β,σ2)dβ
Sử dụng đại số tuyến tính cơ bản và công thức tích phân Gaussian, bạn có thể chỉ ra rằng
σ^2=1n−p||r||2
Điều này có mức độ tự do điều chỉnh làm cho nó không thiên vị và thường được ưa chuộng hơn so với ước tính ML chung.
Từ kết quả này, người ta có thể hỏi liệu có một cái gì đó vốn có lợi thế về khả năng tích hợp, nhưng tôi không biết bất kỳ kết quả chung nào trả lời câu hỏi đó. Sự đồng thuận dường như là ML tích hợp tốt hơn trong việc tính toán sự không chắc chắn trong hầu hết các vấn đề ước tính. Cụ thể, nếu bạn đang ước tính một đại lượng phụ thuộc vào các ước tính tham số khác (thậm chí là ngầm), thì việc tích hợp trên các tham số khác sẽ giải thích tốt hơn cho sự không chắc chắn của chúng.