So sánh các mô hình hiệu ứng hỗn hợp với cùng một số bậc tự do


15

Tôi có một thử nghiệm mà tôi sẽ cố gắng trừu tượng ở đây. Hãy tưởng tượng tôi ném ba viên đá trắng trước mặt bạn và yêu cầu bạn đưa ra đánh giá về vị trí của họ. Tôi ghi lại một loạt các tính chất của đá và phản ứng của bạn. Tôi làm điều này qua một số đối tượng. Tôi tạo ra hai mô hình. Một là viên đá gần nhất với bạn dự đoán phản ứng của bạn và thứ hai là trung tâm hình học của những viên đá dự đoán phản ứng của bạn. Vì vậy, sử dụng lmer trong RI có thể viết.

mNear   <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center  + (1|subject), REML = FALSE)

CẬP NHẬT VÀ THAY ĐỔI - phiên bản trực tiếp hơn kết hợp nhiều bình luận hữu ích

Tôi có thể thử

anova(mNear, mCenter)

Điều này là không chính xác, tất nhiên, vì chúng không được lồng nhau và tôi thực sự không thể so sánh chúng theo cách đó. Tôi đã mong đợi anova.mer sẽ đưa ra một lỗi nhưng không được. Nhưng việc lồng có thể mà tôi có thể thử ở đây không phải là tự nhiên và vẫn để lại cho tôi những tuyên bố ít phân tích hơn. Khi các mô hình được lồng nhau một cách tự nhiên (ví dụ: bậc hai trên tuyến tính), thử nghiệm chỉ là một cách. Nhưng trong trường hợp này có ý nghĩa gì khi có kết quả không đối xứng?

Ví dụ: tôi có thể tạo một mô hình ba:

mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)

Sau đó tôi có thể anova.

anova(mCenter, mBoth)
anova(mNearest, mBoth)

Điều này là công bằng để làm và bây giờ tôi thấy rằng trung tâm thêm vào hiệu ứng gần nhất (lệnh thứ hai) nhưng BIC thực sự đi lên khi gần nhất được thêm vào trung tâm (hiệu chỉnh cho phân tích thấp hơn). Điều này xác nhận những gì đã bị nghi ngờ.

Nhưng tìm kiếm này là đủ? Và điều này có công bằng không khi trung tâm và gần nhất có mối tương quan cao như vậy?

Có cách nào tốt hơn để phân tích so sánh các mô hình khi nó không phải là về việc cộng và trừ các biến giải thích (mức độ tự do) không?


Các mô hình của bạn không được lồng nhau, điều gì sẽ là lý do để sử dụng LRT giữa hai mô hình này?
chl

những điều được trình bày lại theo nhận xét của bạn
John

Câu trả lời:


9

Tuy nhiên, bạn có thể tính khoảng tin cậy cho các hiệu ứng cố định của mình và báo cáo AIC hoặc BIC (xem ví dụ: Cnann et al. , Stat Med 1997 16: 2349).

Bây giờ, bạn có thể quan tâm đến việc xem xét Đánh giá mô hình mô phỏng bằng cách sử dụng bootstrap tham số , từ Wagenmakers et al. có vẻ giống với câu hỏi ban đầu của bạn hơn về việc đánh giá chất lượng của hai mô hình cạnh tranh.

Mặt khác, hai bài báo về các biện pháp giải thích phương sai trong LMM xuất hiện trong đầu tôi là:

Nhưng có lẽ có những lựa chọn tốt hơn.


11

Theo đề nghị của ronaf dẫn đến một bài báo gần đây hơn của Vượng về Thử nghiệm tỷ lệ khả năng trên các mô hình không thử nghiệm. Nó dựa trên KLIC (Tiêu chí thông tin Kullback-Leibler) tương tự như AIC ở chỗ nó giảm thiểu khoảng cách KL. Nhưng nó thiết lập một đặc tả xác suất cho giả thuyết để việc sử dụng LRT dẫn đến một so sánh nguyên tắc hơn. Một phiên bản dễ tiếp cận hơn của các bài kiểm tra Cox và Vương được trình bày bởi Clarke et al; đặc biệt xem Hình 3 trình bày thuật toán để tính toán thử nghiệm LRT Vương.

Có vẻ như có R triển khai thử nghiệm Vương trong các mô hình khác, nhưng không nhẹ hơn. Tuy nhiên, các phác thảo được đề cập ở trên là đủ để thực hiện một. Tôi không nghĩ rằng bạn có thể có được khả năng được đánh giá tại mỗi điểm dữ liệu từ mức thấp hơn theo yêu cầu cho việc tính toán. Trong một ghi chú về sig-ME, Douglas Bates có một số gợi ý có thể hữu ích (đặc biệt là họa tiết mà ông đề cập).


Lớn hơn

Một lựa chọn khác là xem xét các giá trị được trang bị từ các mô hình để kiểm tra độ chính xác dự đoán. Thống kê Williams-Kloot có thể phù hợp ở đây. Cách tiếp cận cơ bản là hồi quy các giá trị thực tế dựa trên sự kết hợp tuyến tính của các giá trị được trang bị từ hai mô hình và kiểm tra độ dốc:

Bài báo đầu tiên mô tả bài kiểm tra (và các bài kiểm tra khác), trong khi bài thứ hai có một ứng dụng của bài kiểm tra đó trong mô hình bảng kinh tế lượng.


Khi sử dụng lmervà so sánh AIC, mặc định của chức năng là sử dụng phương thức REML (Hạn chế tối đa khả năng). Điều này tốt cho việc thu được các ước tính ít sai lệch, nhưng khi so sánh các mô hình, bạn nên điều chỉnh lại bằng cách REML=FALSEsử dụng phương pháp Khả năng tối đa để phù hợp. Các cuốn sách Pinheiro / Bates đề cập đến một số điều kiện theo đó nó OK để so sánh AIC / Khả năng với một trong hai REML hoặc ML, và những rất tốt có thể áp dụng trong trường hợp của bạn. Tuy nhiên, khuyến nghị chung là chỉ cần phù hợp lại. Ví dụ, xem bài đăng của Douglas Bates tại đây:


Tôi đã không xác định rằng tôi đã phù hợp với REML = FALSE. Tôi vẫn còn một chút bối rối ... AIC cho tôi một phép đo toàn bộ khả năng bao gồm cả các hiệu ứng ngẫu nhiên. Đó là một thành phần lớn. Và tất nhiên, AIC cực kỳ khó giống hệt nhau. Do đó, dường như không khôn ngoan khi chỉ chọn giá trị lớn hơn với một số cách phân tích để cho biết nó lớn hơn bao nhiêu.
Giăng

@ John Bài giảng này nêu bật điểm thú vị về REML so với ML và AIC (và chỉ ra những gì bạn nói, John), j.mp/bhUVNt . Đánh giá về GLMM của Bolker cũng đáng để xem qua: j.mp/cAepqA .
chl

4

có một bài báo của drcox thảo luận về việc thử nghiệm các mô hình [không được kiểm chứng] riêng biệt. nó xem xét một vài ví dụ, không làm tăng sự phức tạp của các mô hình hỗn hợp. [vì cơ sở của tôi với mã R bị hạn chế, tôi không chắc chắn mô hình của bạn là gì.]

giấy của altho cox có thể không giải quyết vấn đề của bạn trực tiếp, nó có thể hữu ích theo hai cách có thể.

  1. bạn có thể tìm kiếm học giả google để trích dẫn bài báo của mình, để xem các kết quả như vậy có đến gần hơn với những gì bạn muốn không.

  2. nếu bạn là người thích phân tích, bạn có thể thử áp dụng phương pháp của cox cho vấn đề của mình. [có lẽ không dành cho những người yếu tim.]

btw - cox đã đề cập đến việc chuyển ý tưởng srikant được kết hợp từ hai mô hình thành một mô hình lớn hơn. anh ta không theo đuổi cách người ta quyết định mô hình nào tốt hơn, nhưng anh ta lưu ý rằng ngay cả khi không có mô hình nào là tốt, thì mô hình kết hợp có thể phù hợp với dữ liệu. [không rõ ràng trong tình huống của bạn rằng một mô hình kết hợp sẽ có ý nghĩa.]


3

Tôi không biết R đủ tốt để phân tích mã của bạn nhưng đây là một ý tưởng:

Ước tính một mô hình trong đó bạn có cả trung tâm và gần như là đồng biến (gọi đây là mBoth). Sau đó, mCenter và mNear được lồng trong mBoth và bạn có thể sử dụng mBoth làm chuẩn để so sánh hiệu suất tương đối của mCenter và mNear.


1
Tôi đã nghĩ rằng điều này sẽ không phù hợp bởi vì cả hai thực sự sẽ có mối tương quan cao. Vì trung tâm ở rất xa nên gần sẽ có xu hướng.
Giăng

@ John Điểm tốt.

Tôi nghĩ rằng quan điểm của bạn cũng tốt ... Tôi thực sự không chắc nó có vấn đề gì. Tôi biết nó cao nhưng dưới 0,8 ... vẫn có thể phân tích được.
John
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.