Hạn chế MCMC / EM? MCMC hơn EM?


9

Tôi hiện đang học các mô hình Bayes phân cấp bằng cách sử dụng JAGS từ R và pymc bằng Python ( "Phương pháp Bayes cho tin tặc" ).

Tôi có thể nhận được một số trực giác từ bài đăng này : "bạn sẽ kết thúc với một đống số trông" như thể "bạn đã bằng cách nào đó lấy được các mẫu độc lập từ phân phối phức tạp mà bạn muốn biết." Nó giống như tôi có thể đưa ra xác suất có điều kiện, sau đó tôi có thể tạo ra một quá trình không bộ nhớ dựa trên xác suất có điều kiện. Khi tôi tạo quá trình đủ lâu, thì xác suất chung có thể hội tụ. Và sau đó tôi có thể lấy một đống số ở cuối chuỗi được tạo. Nó giống như tôi lấy các mẫu độc lập từ phân phối chung phức tạp. Ví dụ, tôi có thể tạo biểu đồ và nó có thể xấp xỉ hàm phân phối.

Vậy thì vấn đề của tôi là, tôi có cần chứng minh liệu một MCMC có hội tụ cho một mô hình nào đó không? Tôi có động lực để biết điều này bởi vì trước đây tôi đã học thuật toán EM cho GMM và LDA (mô hình đồ họa). Nếu tôi chỉ có thể sử dụng thuật toán MCMC mà không cần chứng minh liệu nó có hội tụ hay không, thì nó có thể tiết kiệm thời gian hơn nhiều so với EM. Vì tôi sẽ phải tính hàm khả năng ghi nhật ký dự kiến ​​(sẽ phải tính xác suất sau), và sau đó tối đa hóa khả năng nhật ký dự kiến. Nó rõ ràng là cồng kềnh hơn MCMC (tôi chỉ cần xây dựng xác suất có điều kiện).

Tôi cũng tự hỏi nếu chức năng khả năng và phân phối trước là liên hợp. Có nghĩa là MCMC phải hội tụ? Tôi đang tự hỏi về những hạn chế của MCMC và EM.


2
n

3
EM nhanh hơn, không phải là Bayes (không phải ai cũng thích thống kê Bayes) và trong một số trường hợp, nó có ít vấn đề nhận dạng hơn (nó hội tụ đến một giá trị tối đa duy nhất trong khi với phương pháp MCMC bạn có toàn bộ phân phối có thể phức tạp hơn thì ước tính điểm ) v.v.
Tim

2
EM được sử dụng cho khả năng tối đa hoặc tối đa ước tính posteriori nhưng ban đầu được mô tả là thuật toán ML và thường được sử dụng trong phương pháp ML (xem en.wikipedia.org/wiki/ trộm ).
Tim

1
Ngay cả khi bạn sử dụng EM để ước tính MAP chứ không phải ML, thì đó không phải là Bayes đối với tôi vì nó cố gắng mô tả phân phối sau nhưng chỉ giúp bạn có chế độ cục bộ của nó.
Luca

1
Đối với tôi, sử dụng EM không phải là Bayes vì ​​nó cung cấp cho bạn ước tính điểm về các tham số quan tâm của bạn và không định lượng được phân phối đầy đủ sau. Với cả EM và MCMC, người ta có thể có một mô hình xác suất đầy đủ với các linh mục, các biến ngẫu nhiên tiềm ẩn và quan sát được nhưng suy luận thì khác. MCMC nhằm mục đích đặc trưng cho phân phối sau đầy đủ trong khi EM đưa ra không truyền đạt thông tin của phân phối sau đầy đủ. Đối với tôi, Bayes là người sử dụng phân phối sau để ra quyết định. Tuy nhiên, điều này có thể đơn giản. Tôi cũng đang học thứ này.
Luca

Câu trả lời:


13

EM là một kỹ thuật tối ưu hóa: có khả năng với các biến tiềm ẩn hữu ích, nó trả về mức tối đa cục bộ, có thể là mức tối đa toàn cầu tùy thuộc vào giá trị bắt đầu.

MCMC là một phương pháp mô phỏng: có khả năng có hoặc không có các biến tiềm ẩn và trước đó, nó tạo ra một mẫu được phân phối xấp xỉ từ phân phối sau. Các giá trị đầu tiên của mẫu đó thường phụ thuộc vào giá trị bắt đầu, có nghĩa là chúng thường bị loại bỏ ở giai đoạn burn-in (hoặc khởi động).

Khi mẫu này được sử dụng để đánh giá các tích phân liên quan đến phân bố sau [phần lớn các trường hợp], các tính chất hội tụ về cơ bản giống như các phép tính gần đúng của iid Monte Carlo, theo định lý ergodic.

(xt,,xt+T)π(x|D)

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.