Sự khác biệt giữa chuỗi Markov và quy trình Markov là gì?
Tôi đang đọc thông tin mâu thuẫn: đôi khi định nghĩa dựa trên việc không gian trạng thái là rời rạc hay liên tục, và đôi khi nó dựa trên việc thời gian có rời rạc liên tục hay không.
Một quá trình Markov được gọi là chuỗi Markov nếu không gian trạng thái rời rạc, tức là không gian hữu hạn hoặc không gian đếm được rời rạc, tức là hữu hạn hoặc có thể đếm được.
http://www.win.tue.nl/~iadan/que/h3.pdf :
Một quy trình Markov là phiên bản thời gian liên tục của chuỗi Markov.
Hoặc người ta có thể sử dụng chuỗi Markov và quá trình Markov đồng nghĩa, xác định xem tham số thời gian là liên tục hay rời rạc cũng như không gian trạng thái là liên tục hay rời rạc.
Cập nhật 2017-03-04: câu hỏi tương tự đã được hỏi trên https://www.quora.com/Can-I-use-the-words-Markov- Process-and-Mark-to-interchangchangly