Một mô hình đồ họa theo xác suất (PGM) là một hình thức biểu đồ cho gọn mô hình phân bố xác suất chung và quan hệ phụ thuộc (trong) trên một tập hợp các biến ngẫu nhiên. PGM được gọi là mạng Bayes khi đồ thị bên dưới được định hướng và trường ngẫu nhiên của mạng Markov / Markovkhi đồ thị cơ bản là vô hướng. Nói chung, bạn sử dụng cái trước để mô hình hóa ảnh hưởng xác suất giữa các biến có định hướng rõ ràng, nếu không thì bạn sử dụng cái sau; trong cả hai phiên bản PGM, việc thiếu các cạnh trong các biểu đồ liên quan thể hiện tính độc lập có điều kiện trong các bản phân phối được mã hóa, mặc dù ngữ nghĩa chính xác của chúng khác nhau. "Markov" trong "Mạng Markov" đề cập đến một khái niệm chung về tính độc lập có điều kiện được mã hóa bởi PGM, đó là một tập hợp các biến ngẫu nhiên độc lập với các biến khác với một số biến "quan trọng" (tên kỹ thuật là Markov chăn ), tức là .xAxCxBp(xA|xB,xC)=p(xA|xB)
Một quy trình Markov là bất kỳ quy trình ngẫu nhiên {Xt} nào thỏa mãn thuộc tính Markov . Ở đây nhấn mạnh vào một tập hợp các biến ngẫu nhiên (vô hướng) X1,X2,X3,...thường được coi là được lập chỉ mục theo thời gian, đáp ứng một loại độc lập có điều kiện cụ thể, nghĩa là "tương lai độc lập với quá khứ cho hiện tại", đại khái là p(xt+1|xt,xt−1,...,x1)=p(xt+1|xt) . Đây là trường hợp đặc biệt của khái niệm 'Markov' được xác định bởi PGMs: chỉ cần lấy tập hợpvà đưa C trở thành bất kỳ tập hợp con nào của { t - 1 , t - 2 , . . . , 1 } và gọi câu lệnh trước p ( x A | x B , xA={t+1},B={t}C{t−1,t−2,...,1}p(xA|xB,xC)=p(xA|xB) . Từ đó, chúng ta thấy rằng chăn Markov của bất kỳ biếnXt+1 là tiền thân của nóXt .
Do đó, bạn có thể biểu diễn một quy trình Markov với mạng Bayes , như một chuỗi tuyến tính được lập chỉ mục theo thời gian (để đơn giản chúng ta chỉ xem xét trường hợp thời gian / trạng thái rời rạc ở đây; hình ảnh từ cuốn sách PRML của Giám mục):
Loại mạng Bayes này được gọi là mạng Bayes năng động . Vì là mạng Bayes (do đó là PGM), nên người ta có thể áp dụng thuật toán PGM tiêu chuẩn cho suy luận xác suất (như thuật toán tổng sản phẩm, trong đó phương trình Chapman − Kolmogorov đại diện cho trường hợp đặc biệt) và ước tính tham số (ví dụ như khả năng tối đa xuống để đếm đơn giản) qua chuỗi. Các ứng dụng ví dụ này là mô hình ngôn ngữ HMM và n-gram.
Thường thì bạn thấy một mô tả sơ đồ của chuỗi Markov như thế này
p(Xt|Xt−1)Xt(X(1)t,...X(D)t)p(X(1)t,...X(D)t|X(1)t−1,...X(D)t−1)
Xtt→∞p(xt+1|xt,xt−1,...,x1)=p(xt+1|xt)