Hãy nói rằng chúng ta có một mô hình
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Ở đây chúng tôi quan sát một sự phù hợp duy nhất, bởi vì mối tương quan giữa hiệu ứng đánh chặn và x ngẫu nhiên là -1. Bây giờ, theo liên kết hữu ích này, một cách để đối phó với mô hình này là loại bỏ các hiệu ứng ngẫu nhiên bậc cao (ví dụ: X: conditionB) và xem liệu điều đó có tạo ra sự khác biệt khi thử nghiệm tính đơn lẻ hay không. Cách khác là sử dụng phương pháp Bayes, ví dụ, blme
gói để tránh sự kỳ dị.
Phương pháp được ưu tiên là gì và tại sao?
Tôi đang hỏi điều này bởi vì sử dụng cái đầu tiên hoặc cái thứ hai dẫn đến các kết quả khác nhau - trong trường hợp đầu tiên, tôi sẽ loại bỏ hiệu ứng ngẫu nhiên X: conditionB và sẽ không thể ước tính được mối tương quan giữa các hiệu ứng ngẫu nhiên X và X: conditionB. Mặt khác, việc sử dụng blme
cho phép tôi giữ X: conditionB và ước tính mối tương quan đã cho. Tôi thấy không có lý do tại sao tôi thậm chí nên sử dụng các ước tính phi vịnh và loại bỏ các hiệu ứng ngẫu nhiên khi sự phù hợp số ít xảy ra khi tôi có thể ước tính mọi thứ với phương pháp Bayes.
Ai đó có thể giải thích cho tôi những lợi ích và vấn đề bằng cách sử dụng một trong hai phương pháp để đối phó với sự phù hợp với số ít không?
Cảm ơn bạn.