Tôi có một thử nghiệm mà tôi sẽ cố gắng trừu tượng ở đây. Hãy tưởng tượng tôi ném ba viên đá trắng trước mặt bạn và yêu cầu bạn đưa ra đánh giá về vị trí của họ. Tôi ghi lại một loạt các tính chất của đá và phản ứng của bạn. Tôi làm điều này qua một số đối tượng. Tôi tạo ra hai mô hình. Một là viên đá gần nhất với bạn dự đoán phản ứng của bạn và thứ hai là trung tâm hình học của những viên đá dự đoán phản ứng của bạn. Vì vậy, sử dụng lmer trong RI có thể viết.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
CẬP NHẬT VÀ THAY ĐỔI - phiên bản trực tiếp hơn kết hợp nhiều bình luận hữu ích
Tôi có thể thử
anova(mNear, mCenter)
Điều này là không chính xác, tất nhiên, vì chúng không được lồng nhau và tôi thực sự không thể so sánh chúng theo cách đó. Tôi đã mong đợi anova.mer sẽ đưa ra một lỗi nhưng không được. Nhưng việc lồng có thể mà tôi có thể thử ở đây không phải là tự nhiên và vẫn để lại cho tôi những tuyên bố ít phân tích hơn. Khi các mô hình được lồng nhau một cách tự nhiên (ví dụ: bậc hai trên tuyến tính), thử nghiệm chỉ là một cách. Nhưng trong trường hợp này có ý nghĩa gì khi có kết quả không đối xứng?
Ví dụ: tôi có thể tạo một mô hình ba:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Sau đó tôi có thể anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Điều này là công bằng để làm và bây giờ tôi thấy rằng trung tâm thêm vào hiệu ứng gần nhất (lệnh thứ hai) nhưng BIC thực sự đi lên khi gần nhất được thêm vào trung tâm (hiệu chỉnh cho phân tích thấp hơn). Điều này xác nhận những gì đã bị nghi ngờ.
Nhưng tìm kiếm này là đủ? Và điều này có công bằng không khi trung tâm và gần nhất có mối tương quan cao như vậy?
Có cách nào tốt hơn để phân tích so sánh các mô hình khi nó không phải là về việc cộng và trừ các biến giải thích (mức độ tự do) không?