Cập nhật đệ quy MLE dưới dạng luồng quan sát mới trong


15

Câu hỏi chung

Giả sử chúng tôi có dữ liệu iid x1 , x2 , ... phát trực tuyến. Chúng tôi muốn tính toán đệ quy ước tính khả năng tối đa của . Đó là, đã tính toán chúng tôi quan sát một x_n mới và muốn cập nhật dần dần ước tính của chúng tôi \ hat {\ boldsymbol {\ theta}} _ {n-1}, \, x_n \ to \ hat {\ boldsymbol {\ theta}} _ {n} mà không phải bắt đầu từ đầu. Có thuật toán chung cho việc này?f(x|θ)θθ n - 1 = arg max θ R p n - 1 Π i = 1 f ( x i

θ^n1=argmaxθRpi=1n1f(xi|θ),
xnθ n - 1 ,
θ^n1,xnθ^n

Ví dụ đồ chơi

Nếu x1 , x2 , ... N(x|μ,1) , thì

μ^n1=1n1i=1n1xiandμ^n=1ni=1nxi,
vì vậy
μ^n=1n[(n1)μ^n1+xn].


6
Đừng quên nghịch đảo của vấn đề này: cập nhật công cụ ước tính khi các quan sát cũ bị xóa.
Hồng Ooi

Bình phương tối thiểu đệ quy (RLS) là một giải pháp (rất nổi tiếng) cho một trường hợp cụ thể của vấn đề này, phải không? Nói chung, tôi sẽ tin rằng tài liệu lọc ngẫu nhiên có thể hữu ích để xem xét.
jhin

Câu trả lời:


13

Xem khái niệm về sự đầy đủ và đặc biệt, số liệu thống kê đủ tối thiểu . Trong nhiều trường hợp, bạn cần toàn bộ mẫu để tính toán ước tính ở một cỡ mẫu nhất định, không có cách nào để cập nhật từ một cỡ mẫu nhỏ hơn (nghĩa là không có kết quả chung thuận tiện).

Nếu phân phối là gia đình theo cấp số nhân (và trong một số trường hợp khác bên cạnh; đồng phục là một ví dụ gọn gàng) thì có một số liệu thống kê đủ đẹp có thể được cập nhật theo cách bạn tìm kiếm (nghĩa là với một số phân phối thường được sử dụng sẽ có cập nhật nhanh).

Một ví dụ tôi không biết bất kỳ cách trực tiếp nào để tính toán hoặc cập nhật là ước tính cho vị trí phân phối Cauchy (ví dụ với quy mô đơn vị, để làm cho vấn đề trở thành vấn đề một tham số đơn giản). Tuy nhiên, có thể có một bản cập nhật nhanh hơn mà tôi chỉ đơn giản là không nhận thấy - tôi không thể nói rằng tôi thực sự đã làm nhiều hơn là liếc nhìn nó để xem xét trường hợp cập nhật.

Mặt khác, với các MLE thu được thông qua các phương pháp tối ưu hóa số, ước tính trước đó trong nhiều trường hợp sẽ là điểm khởi đầu tuyệt vời, vì thông thường ước tính trước đó sẽ rất gần với ước tính cập nhật; theo nghĩa đó ít nhất, cập nhật nhanh chóng thường là có thể. Mặc dù đây không phải là trường hợp chung - mặc dù - với các hàm khả năng đa phương thức (một lần nữa, hãy xem Cauchy chẳng hạn), một quan sát mới có thể dẫn đến chế độ cao nhất là một khoảng cách so với trước đó (ngay cả khi vị trí của mỗi trong số ít các chế độ lớn nhất không thay đổi nhiều, chế độ nào cao nhất cũng có thể thay đổi).


1
Cảm ơn! Điểm về MLE có thể chuyển đổi chế độ giữa dòng là đặc biệt hữu ích để hiểu lý do tại sao điều này nói chung sẽ khó khăn.
19:00

1
Bạn có thể tự mình nhìn thấy điều này với mô hình Cauchy quy mô đơn vị ở trên và dữ liệu (0.1,0.11,0.12,2.91,2.921,2.933). Khả năng đăng nhập cho vị trí của các chế độ là gần 0,5 và 2,5, và đỉnh (hơi) cao hơn là gần 0,5. Bây giờ thực hiện quan sát tiếp theo 10 và chế độ của mỗi trong hai đỉnh hầu như không di chuyển nhưng đỉnh thứ hai bây giờ cao hơn đáng kể. Gradient giảm dần sẽ không giúp bạn khi điều đó xảy ra, nó gần giống như bắt đầu lại. Nếu dân số của bạn là hỗn hợp của hai nhóm nhỏ có kích thước tương tự với các vị trí khác nhau, trường hợp như vậy có thể xảy ra -. ... ctd
Glen_b -Reinstate Monica

ctd ... ngay cả trong một mẫu tương đối lớn. Trong tình huống phù hợp, chuyển đổi chế độ có thể xảy ra khá thường xuyên.
Glen_b -Reinstate Monica

Một điều kiện ngăn chặn đa phương thức là khả năng nên log-lõm ghi vectơ tham số cho tất cả . Điều này ngụ ý những hạn chế trên mô hình, tuy nhiên. n
Yves

Vâng chính xác; Tôi đã tranh luận với bản thân về việc có nên thảo luận điều đó trong câu trả lời không.
Glen_b -Reinstate Monica

4

Trong học máy, điều này được gọi là học trực tuyến .

Như @Glen_b đã chỉ ra, có những trường hợp đặc biệt trong đó MLE có thể được cập nhật mà không cần phải truy cập tất cả các dữ liệu trước đó. Như ông cũng chỉ ra, tôi không tin có một giải pháp chung để tìm MLE.

Một cách tiếp cận khá chung chung để tìm giải pháp gần đúng là sử dụng một cái gì đó như giảm dần độ dốc ngẫu nhiên. Trong trường hợp này, khi mỗi quan sát xuất hiện, chúng tôi tính toán độ dốc đối với quan sát riêng lẻ này và di chuyển các giá trị tham số một lượng rất nhỏ theo hướng này. Trong một số điều kiện nhất định, chúng tôi có thể chỉ ra rằng điều này sẽ hội tụ đến một vùng lân cận của MLE với xác suất cao; vùng lân cận chặt chẽ và chặt chẽ hơn khi chúng ta giảm kích thước bước, nhưng cần nhiều dữ liệu hơn để hội tụ. Tuy nhiên, các phương pháp ngẫu nhiên nói chung đòi hỏi nhiều khó khăn hơn để có được hiệu suất tốt hơn so với, cập nhật biểu mẫu đóng.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.