EM không cần thiết thay vì sử dụng một số kỹ thuật số vì EM cũng là một phương pháp số. Vì vậy, nó không phải là một thay thế cho Newton-Raphson. EM dành cho trường hợp cụ thể khi bạn thiếu các giá trị trong ma trận dữ liệu của mình. Hãy xem xét một mẫu trong đó có mật độ có điều kiện f X | Θ ( x | θ ) . Sau đó, loga của việc này là
l ( θ ; X ) = l o g f X | ΘX= ( X1, . . . , Xn)fX| Θ( X | q )
Bây giờ giả sử rằng bạn không có bộ dữ liệu hoàn chỉnh sao cho X được tạo thành từ dữ liệu quan sát Y và các biến Z (hoặc tiềm ẩn) bị thiếu, sao cho X = ( Y , Z ) . Sau đó, loga cho các dữ liệu quan sát được là
l o b s ( θ , Y ) = l o g ∫ f X | Θ ( Y , z | q ) ν z (
l ( θ ; X) = l o gfX| Θ( X| θ)
XYZX= ( Y, Z)
Nói chung bạn không thể tính toán không thể thiếu này trực tiếp và bạn sẽ không có được một giải pháp đóng hình thức cho
l o b s ( θ , Y ) . Đối với mục đích này, bạn sử dụng phương pháp EM. Có hai bước được lặp lại cho
tôi lần. Trong này
( i + 1 ) t h bước đó là những bước mong đợi mà bạn tính toán
Q ( θ | θ ( i ) ) = E θ ( i ) [ l ( θtôio b s( θ , Y) = l o g∫fX| Θ( Y, z| θ) νz( dz)
tôio b s( θ , Y)tôi( i + 1 )t h
trong đó
θ ( i ) là ước tính của
Θ trong bước
i t h . Sau đó tính toán bước tối đa hóa trong đó bạn phát huy tối đa
Q ( θ | θ ( i ) ) liên quan đến
q và bộ
θ ( i + 1 ) = m một x Q ( θ | θ i )Q ( q | q( tôi )) = Eθ( tôi )[ l ( θ ; X| Y]
θ( tôi )Θtôit hQ ( q | q( tôi ))θθ( i + 1 )= M một x Q ( q | qtôi). Sau đó, bạn lặp lại các bước này cho đến khi phương thức hội tụ đến một giá trị nào đó sẽ là ước tính của bạn.
Nếu bạn cần thêm thông tin về phương pháp, các thuộc tính, bằng chứng hoặc ứng dụng của nó chỉ cần xem qua bài viết Wiki tương ứng .