Sự khác biệt giữa các mạng Bayes và quá trình Markov?


28

Sự khác biệt giữa Mạng Bayes và quy trình Markov là gì?

Tôi tin rằng tôi đã hiểu các nguyên tắc của cả hai, nhưng bây giờ khi tôi cần so sánh hai thứ tôi cảm thấy lạc lõng. Chúng có nghĩa gần như giống tôi. Chắc chắn là không.

Liên kết đến các tài nguyên khác cũng được đánh giá cao.


Tôi nhớ ai đó đã nói với tôi trên trang web này, các mạng Bayes không nhất thiết yêu cầu suy luận Bayes. Tên của họ đến từ quy tắc Bayes.
Tim

Câu trả lời:


21

Một mô hình đồ họa theo xác suất (PGM) là một hình thức biểu đồ cho gọn mô hình phân bố xác suất chung và quan hệ phụ thuộc (trong) trên một tập hợp các biến ngẫu nhiên. PGM được gọi là mạng Bayes khi đồ thị bên dưới được định hướng và trường ngẫu nhiên của mạng Markov / Markovkhi đồ thị cơ bản là vô hướng. Nói chung, bạn sử dụng cái trước để mô hình hóa ảnh hưởng xác suất giữa các biến có định hướng rõ ràng, nếu không thì bạn sử dụng cái sau; trong cả hai phiên bản PGM, việc thiếu các cạnh trong các biểu đồ liên quan thể hiện tính độc lập có điều kiện trong các bản phân phối được mã hóa, mặc dù ngữ nghĩa chính xác của chúng khác nhau. "Markov" trong "Mạng Markov" đề cập đến một khái niệm chung về tính độc lập có điều kiện được mã hóa bởi PGM, đó là một tập hợp các biến ngẫu nhiên độc lập với các biến khác với một số biến "quan trọng" (tên kỹ thuật là Markov chăn ), tức là .xAxCxBp(xA|xB,xC)=p(xA|xB)

Một quy trình Markov là bất kỳ quy trình ngẫu nhiên {Xt} nào thỏa mãn thuộc tính Markov . Ở đây nhấn mạnh vào một tập hợp các biến ngẫu nhiên (vô hướng) X1,X2,X3,...thường được coi là được lập chỉ mục theo thời gian, đáp ứng một loại độc lập có điều kiện cụ thể, nghĩa là "tương lai độc lập với quá khứ cho hiện tại", đại khái là p(xt+1|xt,xt1,...,x1)=p(xt+1|xt) . Đây là trường hợp đặc biệt của khái niệm 'Markov' được xác định bởi PGMs: chỉ cần lấy tập hợpvà đưa C trở thành bất kỳ tập hợp con nào của { t - 1 , t - 2 , . . . , 1 } và gọi câu lệnh trước p ( x A | x B , xA={t+1},B={t}C{t1,t2,...,1}p(xA|xB,xC)=p(xA|xB) . Từ đó, chúng ta thấy rằng chăn Markov của bất kỳ biếnXt+1 là tiền thân của nóXt .

Do đó, bạn có thể biểu diễn một quy trình Markov với mạng Bayes , như một chuỗi tuyến tính được lập chỉ mục theo thời gian (để đơn giản chúng ta chỉ xem xét trường hợp thời gian / trạng thái rời rạc ở đây; hình ảnh từ cuốn sách PRML của Giám mục): nhập mô tả hình ảnh ở đây Loại mạng Bayes này được gọi là mạng Bayes năng động . Vì là mạng Bayes (do đó là PGM), nên người ta có thể áp dụng thuật toán PGM tiêu chuẩn cho suy luận xác suất (như thuật toán tổng sản phẩm, trong đó phương trình Chapman − Kolmogorov đại diện cho trường hợp đặc biệt) và ước tính tham số (ví dụ như khả năng tối đa xuống để đếm đơn giản) qua chuỗi. Các ứng dụng ví dụ này là mô hình ngôn ngữ HMM và n-gram.

Thường thì bạn thấy một mô tả sơ đồ của chuỗi Markov như thế nàynhập mô tả hình ảnh ở đây

p(Xt|Xt1)Xt(Xt(1),...Xt(D))p(Xt(1),...Xt(D)|Xt1(1),...Xt1(D))

Xttp(xt+1|xt,xt1,...,x1)=p(xt+1|xt)


17

Đầu tiên một vài từ về Quy trình Markov. Có bốn hương vị riêng biệt của con thú đó, tùy thuộc vào không gian trạng thái (rời rạc / liên tục) và biến thời gian (rời rạc / liên tục). Ý tưởng chung của bất kỳ Quy trình Markov nào là "đưa ra hiện tại, tương lai là độc lập với quá khứ".

Quy trình Markov đơn giản nhất, là không gian riêng biệt và hữu hạn, và Chuỗi thời gian Markov rời rạc. Bạn có thể hình dung nó như một tập hợp các nút, với các cạnh được định hướng giữa chúng. Biểu đồ có thể có chu kỳ, và thậm chí các vòng lặp. Trên mỗi cạnh, bạn có thể viết một số từ 0 đến 1, theo cách như vậy, cho mỗi số nút trên các cạnh đi từ tổng của nút đó thành 1.

Bây giờ hãy tưởng tượng một quy trình sau: bạn bắt đầu ở một trạng thái nhất định A. Mỗi giây, bạn chọn ngẫu nhiên một cạnh ra khỏi trạng thái bạn hiện đang ở, với xác suất chọn cạnh đó bằng với số trên cạnh đó. Theo cách đó, bạn tạo ngẫu nhiên một chuỗi các trạng thái.

Một hình ảnh rất tuyệt vời của một quá trình như vậy có thể được tìm thấy ở đây: http://setosa.io/blog/2014/07/26/markov-chains/

Thông điệp mang đến là, biểu diễn đồ họa của thời gian rời rạc không gian rời rạc Markov Process là một biểu đồ chung, biểu thị phân phối trên chuỗi các nút của biểu đồ (được cung cấp một nút bắt đầu hoặc phân phối bắt đầu trên các nút).

Mặt khác, Mạng Bayes là một DAG ( Đồ thị theo chu kỳ có hướng) đại diện cho một yếu tố của một số phân phối xác suất chung. Thông thường đại diện này cố gắng tính đến sự độc lập có điều kiện giữa một số biến, để đơn giản hóa biểu đồ và giảm số lượng tham số cần thiết để ước tính phân phối xác suất chung.


3

Trong khi tôi đang tìm kiếm một câu trả lời cho cùng một câu hỏi, tôi đã xem qua những câu trả lời này. Nhưng không ai trong số họ làm rõ chủ đề. Khi tôi tìm thấy một số lời giải thích tốt, tôi muốn chia sẻ với những người có suy nghĩ giống tôi.

Trong cuốn sách "Lý luận xác suất trong các hệ thống thông minh: Mạng suy luận hợp lý" được viết bởi Judea Pearl, chương 3: Mạng Markov và Bayesian: Hai đại diện đồ họa của kiến ​​thức xác suất, tr.116:

Điểm yếu chính của các mạng Markov là không có khả năng đại diện cho các phụ thuộc cảm ứng và không chuyển tiếp; hai biến độc lập sẽ được kết nối trực tiếp bởi một cạnh, chỉ vì một số biến khác phụ thuộc vào cả hai. Kết quả là, nhiều độc lập hữu ích không được trình bày trong mạng. Để khắc phục sự thiếu hụt này, các mạng Bayes sử dụng ngôn ngữ phong phú hơn của đồ thị có hướng , trong đó các hướng của mũi tên cho phép chúng ta phân biệt các phụ thuộc thực sự với các phụ thuộc giả do các quan sát giả định gây ra.


1

Một quá trình Markov là một quá trình ngẫu nhiên với tài sản Markovian (khi chỉ số là thời gian, tài sản Markovian là một sự độc lập có điều kiện đặc biệt, nói rằng hiện tại, quá khứ và tương lai là độc lập.)

Một mạng Bayes là một mô hình đồ họa có định hướng. (Trường ngẫu nhiên Markov là một mô hình đồ họa không bị ảnh hưởng.) Một mô hình đồ họa nắm bắt tính độc lập có điều kiện, có thể khác với thuộc tính Markovian.

Tôi không quen thuộc với các mô hình đồ họa, nhưng tôi nghĩ rằng một mô hình đồ họa có thể được xem là một quá trình ngẫu nhiên.


1

-Ý tưởng chung của bất kỳ Quy trình Markov nào là "đưa ra hiện tại, tương lai là độc lập với quá khứ".

-Ý tưởng chung của bất kỳ phương pháp Bayes nào là "đưa ra trước, tương lai không phụ thuộc vào quá khứ", các tham số của nó, nếu được lập chỉ mục bởi các quan sát, sẽ tuân theo quy trình Markov

THÊM

"tất cả những điều sau đây sẽ giống nhau trong cách tôi cập nhật niềm tin của mình

  • bạn cho tôi thông tin mới A, sau đó bạn cho tôi thông tin mới B,
  • bạn cho tôi thông tin mới B, rồi thông tin mới A
  • bạn cho tôi A và B cùng nhau "

Vì vậy, các tham số của nó sẽ thực sự là một quá trình Markov được lập chỉ mục theo thời gian chứ không phải bởi các quan sát

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.