Tài liệu tham khảo biện minh cho việc sử dụng Hỗn hợp Gaussian


14

Các mô hình hỗn hợp Gaussian (GMM) rất hấp dẫn bởi vì chúng đơn giản để làm việc với cả trong phân tích và thực tế và có khả năng mô hình hóa một số phân phối kỳ lạ mà không quá phức tạp. Có một vài thuộc tính phân tích mà chúng ta nên dự kiến ​​sẽ nắm giữ mà không rõ ràng nói chung. Đặc biệt:

  • Nói là lớp của tất cả các hỗn hợp Gaussian với thành phần. Đối với bất kỳ phân phối liên tục nào trên thực tế, chúng tôi có đảm bảo rằng khi phát triển, chúng tôi có thể tính xấp xỉ với một GMM với tổn thất không đáng kể theo nghĩa entropy tương đối không? Đó là,SnnPnP
    limninfP^SnD(P||P^)=0?
  • Giả sử chúng tôi có phân phối liên tục và chúng tôi đã tìm thấy hỗn hợp Gaussian N -component \ hat {P} gần với P trong tổng biến thể: \ delta (P, \ hat {P}) <\ varepsilon . Chúng ta có thể ràng buộc D (P || \ hat {P}) về mặt \ epsilon không?PP P δ ( P , P ) < ε D ( P | | P ) εNP^Pδ(P,P^)<εD(P||P^)ϵ
  • Nếu chúng tôi muốn quan sát XPX thông qua tiếng ồn phụ gia độc lập YPY (cả thực, liên tục) và chúng tôi có GMMs X^QX,Y^QN trong đó δ(P,Q)<ϵ , khi đó giá trị này nhỏ:
    |mmse(X|X+Y)mmse(X^|X^+Y^)|,
    nghĩa là có đúng khi ước lượng nhiễu X qua Y khó như ước tính X^ qua Y^ không?
  • Bạn có thể làm điều đó cho các mô hình tiếng ồn không phụ gia như tiếng ồn Poisson không?

Đánh giá tài liệu (ngắn) của tôi cho đến nay chỉ bật lên các hướng dẫn rất áp dụng. Có ai có bất kỳ tài liệu tham khảo nào thể hiện nghiêm ngặt trong những điều kiện nào chúng ta có lý khi sử dụng các mô hình hỗn hợp không?


3
Tập hợp các GMM dày đặc trong tập hợp các phân phối trong cấu trúc liên kết yếu (tương ứng với sự hội tụ trong phân phối); xem ví dụ ở đây . Tôi không chắc chắn cho dù tuyên bố đầu tiên bạn nắm giữ, mặc dù nó chắc chắn sẽ yêu cầu cho phép các thành phần zero-sai trong hỗn hợp để đối phó với bất kỳ khối lượng điểm trong . Tôi cũng hoài nghi về điểm đạn thứ hai, một lần nữa vì vấn đề khối lượng điểm. P
Dougal

1
Điểm hay, tôi đã chỉ định mọi thứ phải liên tục
enthdegree

1
Bạn có thể may mắn hơn khi xem các tài liệu về ước tính mật độ hạt nhân với các hạt nhân Gaussian. Vì bạn có một hỗn hợp Gaussian với một mẫu cho mỗi mẫu, khi số lượng mẫu tăng lên, bạn có nhận được một ước lượng không thiên vị và không nhất quán của phân phối không? Tôi nghĩ rằng câu trả lời là có, nhưng không thể ngay lập tức tìm thấy một tài liệu tham khảo.
Greg Ver Steeg

2
@enthdegree: Câu hỏi rất hay. Vì bạn muốn sử dụng các cấu trúc liên kết mạnh (phân kỳ KL và biến thiên toàn phần), câu trả lời chung cho hai điểm đầu tiên của bạn là không: ví dụ: hãy xem xét phân phối đuôi béo; KL đến bất kỳ hỗn hợp gaussian hữu hạn nào là vô hạn (tôi khá chắc chắn rằng nó hoạt động, mặc dù không phải là 100%). Nhưng điều này dẫn đến câu hỏi thú vị hơn nhiều, đối với phân lớp xác suất nào, tất cả các điểm đạn của bạn sẽ áp dụng? Tôi không biết câu trả lời nhưng có vẻ cực kỳ thú vị. Tôi đoán có lẽ là gần như tất cả các phân phối xác suất.
Guillaume Dehaene

1
Tôi đã tham gia một lớp học với cuốn sách này. liên kết Nó làm một số nền tảng tốt về nguyên tắc cơ bản.
EngrStudent - Phục hồi lại

Câu trả lời:


0

Trong kinh tế lượng, trong đó bối cảnh là sự phân phối hỗn hợp các hệ số trong các mô hình logit, tham chiếu tiêu chuẩn là: MIXED MNL MÔ HÌNH ĐỂ GIẢI QUYẾT GIẢI QUYẾT DaniEL MCFADDEN VÀ TUYỆT VỜI CỦA ỨNG DỤNG, JACKAL OF ECONOMETRICS, J. Kinh tế. 15: 447-470 (2000).


0

Đối với câu hỏi của bạn:

  1. Đối với vấn đề Bayes rất giống với hỗn hợp Dirichlet Process của gaussian, tôi hiểu câu trả lời là có. Ghosal (2013) .
  2. Khi tôi tham dự một số cuộc nói chuyện về chủ đề này, có vẻ như tiến bộ chủ yếu được thực hiện bằng cách sử dụng phân kỳ KL. Xem slide của Harry van Zanten .
  3. Tôi không rõ ràng. Tuy nhiên, điều này trông giống như một vấn đề tách nguồn ( rõ). Chúng thường khó khăn hơn nhiều so với mô hình hỗn hợp một mình. Đặc biệt đối với trường hợp đơn giản là P N = P S = N ( 0 , 1 ), bạn sẽ không thể xác định được XY thực do tính đối xứng của các phân phối về 0.PN,PSPN=PS=N(0,1)XY
  4. Xem phần thứ tư của các slide được liên kết ở trên, có một danh sách các mô hình Bayes mà sự đảm bảo hội tụ được giữ.

0

Đây là một câu trả lời một phần.

Nói là lớp của tất cả các hỗn hợp Gaussian với n thành phần. Đối với bất kỳ phân phối P liên tục nào trên thực tế, chúng tôi có đảm bảo rằng khi n phát triển, chúng tôi có thể tính xấp xỉ P với một GMM với tổn thất không đáng kể theo nghĩa entropy tương đối không? Nghĩa là, không lim n inf PS n D ( P | | P ) = 0 ?SnnPnP

limninfP^SnD(P||P^)=0?

Số Bạn chỉ có thể hy vọng rằng một KL phân kỳ là nhỏ nếu bạn biết rằng Q 'đuôi s là cuối cùng của thứ tự như P ' s. Điều này nói chung không đúng. Nó không phải là khó để thấy rằng đối với P Cauchy sau đó cho bất kỳ n , inf PS n D ( P | | P ) = D(PQ)QPPn

infP^SnD(P||P^)=

Cần thêm điều kiện về để nói rằng.P

Giả sử chúng ta có một phân phối liên tục và chúng tôi đã tìm thấy một N -component Gaussian hỗn hợp P mà gần P trong tổng số biến thể: δ ( P , P ) < ε . Chúng ta có thể bị ràng buộc D ( P | | P ) về ε ?PNP^Pδ(P,P^)<εD(P||P^)ϵ

Không. Ví dụ tương tự ở trên áp dụng.

Nếu chúng ta muốn quan sát thông qua độc lập phụ tiếng ồn Y ~ P Y (cả thực tế, liên tục), và chúng tôi có GMMs X ~ Q X , Y ~ Q Y nơi δ ( P , Q ) < ε , sau đó giá trị này có nhỏ không: | m m s e ( X | X + Y ) - m m s e ( XXPXYPYX^QX,Y^QYδ(P,Q)<ϵ Tức là nó đúng là ước tínhXquaYtiếng ồn là về khó như ước tính X qua Y tiếng ồn?

|mmse(X|X+Y)mmse(X^|X^+Y^)|,
XYX^Y^

X,Y,X^,Y^E[X|Y]E[X^|Y^]|EP[(EP[X|Y]X)2]EQ[(EQ[X|Y]X)2]|TV(P,Q)nhỏ. Liên quan.

Tôi đã không thể chứng minh điều này, nói chung hoặc sử dụng cấu trúc phụ gia bổ sung mà chúng tôi đã giả định trên P, Q hoặc đưa ra bất kỳ mẫu phản ứng nào.

Bạn có thể làm điều đó cho các mô hình tiếng ồn không phụ gia như tiếng ồn Poisson không?

Điều này là mơ hồ. Trong bối cảnh của câu hỏi trước, nếu câu nói trong câu trả lời đó có thể được chứng minh nói chung thì câu trả lời là có.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.