Các mô hình Markov ẩn và thuật toán tối đa hóa kỳ vọng


Câu trả lời:


12

Thuật toán EM (tối đa hóa kỳ vọng) là một thuật toán chung để tối ưu hóa hàm khả năng trong trường hợp mô hình được chỉ định một cách xác suất theo thành phần được quan sát và không quan sát được (tiềm ẩn). HMM (mô hình Markov ẩn) là mô hình của hình thức này vì chúng có thành phần không quan sát được, trạng thái ẩn và các quan sát thực tế thường được gọi là phát thải trong thuật ngữ HMM. Do đó, các HMM tạo thành một lớp các mô hình mà thuật toán EM có thể hữu ích.

(X,Y)pθ(x,y)θX=x

Lx(θ)=ypθ(x,y).
θ
  • xθ
  • bước M , là một tối đa hóa

Thuật toán EM có ý nghĩa nhất nếu hai bước trên có thể được thực hiện theo cách tính toán hiệu quả, ví dụ: khi chúng ta có các biểu thức dạng đóng cho kỳ vọng có điều kiện và tối đa hóa.

Trong lịch sử, thuật toán EM nói chung được ghi nhận cho Dempster, Laird và Rubin , người đã chứng minh trong bài báo năm 1977 của họ, trong số những điều khác, thuật toán dẫn đến một chuỗi các tham số với các giá trị khả năng tăng đơn điệu. Họ cũng đặt ra thuật ngữ "thuật toán EM". Thật thú vị, thuật toán EM cho HMM đã được mô tả vào năm 1970 bởi Baum et al. , và cũng thường được gọi là thuật toán Baum-Welch trong tài liệu HMM (tôi không biết chính xác những gì Welch đã làm ...).


3
Welch đã phát minh ra cái mà ngày nay gọi là thuật toán Baum-Welch (ông gọi nó là "phần dễ dàng"); Baum chứng minh một cách toán học rằng thuật toán hoạt động ("phần cứng"). Xem các khóa học.cs.tamu.edu / rgutier / cpsc689_s07 / welch2003baumWelch.pdf để biết chi tiết chính xác.
Mikhail Korobov

@MikhailKorobov, cảm ơn bạn đã tham khảo thông tin này.
NRH

2

Tối đa hóa kỳ vọng là một phương pháp lặp được sử dụng để thực hiện suy luận thống kê trên nhiều mô hình thống kê tổng quát khác nhau, ví dụ như hỗn hợp Gaussian và các mô hình loại mạng Bayes khác. Kết nối duy nhất là HMM cũng là mạng Bayes. Nhưng người ta có thể sẽ không sử dụng EM trên HMM vì có một thuật toán chính xác để suy luận trong các HMM được gọi là thuật toán Viterbi. Vì vậy, mặc dù người ta có thể sử dụng EM để thực hiện suy luận về HMM, nhưng bạn sẽ không vì lý do nào.


4
Điều này không hoàn toàn chính xác vì bạn trộn lẫn hai loại "suy luận" khác nhau. EM là một thuật toán để ước tính các tham số chưa biết, Viterbi là thuật toán để tính toán chuỗi các trạng thái ẩn có thể xảy ra nhất. Thật vậy, bạn sẽ sử dụng EM cho HMM để ước tính tham số. Tôi đã cung cấp thêm chi tiết về thuật toán EM với các tài liệu tham khảo lịch sử giải thích mối quan hệ giữa HMM và EM trong câu trả lời của tôi.
NRH

0

Trong HMM, chúng tôi cố gắng ước tính chủ yếu ba tham số:

  1. KK

  2. K×K

  3. K×NN

Bây giờ, phần EM xuất hiện khi bạn cố gắng ước tính số lượng / tham số đã nêu ở trên. Bắt đầu với một số dự đoán ngẫu nhiên, khả năng của các quan sát được đánh giá và các tham số được điều chỉnh lặp đi lặp lại cho đến khi chúng tôi có được khả năng tối đa. Vì vậy, thông qua HMM, chúng tôi mô hình hóa một số quy trình và để chúng tôi cần giới thiệu một số tham số. Để ước tính các tham số, EM được hiển thị.

Đây là một câu trả lời rất ngắn gọn. Việc thực hiện EM đòi hỏi một loạt các vấn đề phụ khác để giải quyết thông qua một loạt các kỹ thuật. Để hiểu sâu hơn, bài hướng dẫn cổ điển Rabiner rất được khuyến khích.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.