Ý tưởng mô hình hỗn hợp và phương pháp Bayes


10

Trong mô hình hỗn hợp, chúng tôi giả sử các hiệu ứng ngẫu nhiên (tham số) là các biến ngẫu nhiên tuân theo các phân phối bình thường. Nó trông rất giống với phương pháp Bayes, trong đó tất cả các tham số được giả sử là ngẫu nhiên.

Vì vậy, mô hình hiệu ứng ngẫu nhiên là trường hợp đặc biệt của phương pháp Bayes?

Câu trả lời:


7

Đây là một câu hỏi hay. Nói đúng ra, sử dụng mô hình hỗn hợp không khiến bạn trở thành Bayes. Hãy tưởng tượng ước tính từng hiệu ứng ngẫu nhiên một cách riêng biệt (coi nó là một hiệu ứng cố định) và sau đó nhìn vào phân phối kết quả. Điều này là "bẩn", nhưng về mặt khái niệm, bạn có phân phối xác suất trên các hiệu ứng ngẫu nhiên dựa trên khái niệm tần số tương đối .

Nhưng nếu, như một người thường xuyên, bạn phù hợp với mô hình của bạn bằng cách sử dụng khả năng tối đa đầy đủ và sau đó muốn "ước tính" các hiệu ứng ngẫu nhiên, bạn đã có một chút phức tạp. Các đại lượng này không cố định như các tham số hồi quy điển hình của bạn, vì vậy một từ tốt hơn "ước tính" có thể là "dự đoán". Nếu bạn muốn dự đoán hiệu ứng ngẫu nhiên cho một chủ đề nhất định, bạn sẽ muốn sử dụng dữ liệu của chủ đề đó. Bạn sẽ cần phải sử dụng quy tắc của Bayes hoặc ít nhất là khái niệm rằngỞ đây, phân phối hiệu ứng ngẫu nhiên hoạt động về cơ bản giống như trước. Và tôi nghĩ đến thời điểm này, nhiều người sẽ gọi đây là "Bayes theo kinh nghiệm".

f(βi|yi)f(yi|βi)g(βi).
g()

Để trở thành một Bayes thực thụ, bạn không chỉ cần chỉ định phân phối cho các hiệu ứng ngẫu nhiên của mình, mà cả các phân phối (linh mục) cho từng tham số xác định phân phối đó, cũng như phân phối cho tất cả các tham số hiệu ứng cố định và epsilon mô hình. Nó khá dữ dội!


Thực sự rõ ràng, trả lời thẳng thắn.
DL Dahly

@baogorek - một mặc định khá mạnh mẽ là các linh mục Cauchy cho các hiệu ứng cố định và một nửa khó chịu cho các tham số phương sai - không phải là "dữ dội" - nó trông giống như khả năng bị phạt
xác suất

4

Hiệu ứng ngẫu nhiên là một cách để xác định một giả định phân phối bằng cách sử dụng các phân phối có điều kiện. Ví dụ: mô hình ANOVA một chiều ngẫu nhiên là: Và giả định phân phối này tương đương với trong đó có cấu trúc có thể trao đổi (với mục nhập chéo và hiệp phương sai( y i 1y i J )iid N ( ( μ μ ) , Σ ) ,

(yijμi)iidN(μi,σw2),j=1,,J,μiiidN(μ,σb2),i=1,,I.
Σ σ 2 b + σ 2 w σ 2 b L Σ
(yi1yiJ)iidN((μμ),Σ),i=1,,I
Σσb2+σw2σb2). Để Bayesianify mô hình, bạn cần chỉ định các bản phân phối trước trên và .μΣ

3

Nếu bạn đang nói về việc sao chép cùng một câu trả lời, thì câu trả lời là có. Phương pháp tính toán INLA (google "inla bayesian") cho GLMM bayes kết hợp với thống nhất trước các tham số hiệu ứng và phương sai cố định, về cơ bản tái tạo các đầu ra EBLUP / EBLUE theo ước tính phương sai "cắm đơn giản", trong đó các tham số phương sai được ước tính thông qua REML.


1

Tôi không nghĩ vậy, tôi coi đó là một phần của chức năng khả năng. Nó tương tự như chỉ định thuật ngữ lỗi tuân theo phân phối Bình thường trong mô hình hồi quy hoặc một quy trình nhị phân nhất định có thể được mô hình hóa bằng cách sử dụng mối quan hệ logistic trong GLM.

Vì không có thông tin trước, hoặc phân phối, được sử dụng, tôi không coi đó là Bayes.


3
Không có thông tin trước được sử dụng hey? Làm thế nào bạn xác định hình thức chức năng cho chức năng khả năng sau đó? :-D
xác suất

Một số người cho rằng sự khác biệt giữa khả năng và trước là hơi giả tạo.
Christoph Hanck
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.