Tại sao Anova () và drop1 () cung cấp các câu trả lời khác nhau cho GLMM?


10

Tôi có một GLMM có dạng:

lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + 
                (1 | factor3), family=binomial)

Khi tôi sử dụng drop1(model, test="Chi"), tôi nhận được kết quả khác với nếu tôi sử dụng Anova(model, type="III")từ gói xe hơi hoặc summary(model). Hai cái sau cho cùng một câu trả lời.

Sử dụng một loạt các dữ liệu bịa đặt, tôi đã thấy rằng hai phương pháp này thường không khác nhau. Chúng đưa ra cùng một câu trả lời cho các mô hình tuyến tính cân bằng, mô hình tuyến tính không cân bằng (trong đó n không bằng nhau trong các nhóm khác nhau) và cho các mô hình tuyến tính tổng quát cân bằng, nhưng không cho các mô hình hỗn hợp tuyến tính tổng quát cân bằng. Vì vậy, có vẻ như chỉ trong trường hợp các yếu tố ngẫu nhiên được đưa vào thì biểu hiện bất hòa này.

  • Tại sao có sự khác biệt giữa hai phương pháp này?
  • Khi sử dụng GLMM nên Anova()hay drop1()được sử dụng?
  • Sự khác biệt giữa hai điều này là khá nhẹ, ít nhất là đối với dữ liệu của tôi. Nó thậm chí có vấn đề được sử dụng?

Câu trả lời:


7

Tôi nghĩ rằng đó là sự khác biệt của các bài kiểm tra được tính toán. car::Anovasử dụng các bài kiểm tra Wald, trong khi drop1cải tiến mô hình bỏ các thuật ngữ đơn lẻ. John Fox đã từng viết cho tôi, rằng Wald kiểm tra và thử nghiệm từ các mô hình được tinh chỉnh bằng các thử nghiệm tỷ lệ khả năng (nghĩa là chiến lược từ drop1) đồng ý cho các mô hình tuyến tính nhưng không nhất thiết là phi tuyến tính. Thật không may, thư này nằm ngoài danh sách và không chứa bất kỳ tài liệu tham khảo nào. Nhưng tôi biết rằng cuốn sách của ông có một chương về các bài kiểm tra Wald, có thể chứa thông tin mong muốn.

Trợ giúp để car::Anovanói:

Các bài kiểm tra loại II được tính theo nguyên tắc cận biên, kiểm tra từng thuật ngữ sau tất cả các thuật ngữ khác, ngoại trừ bỏ qua các họ hàng bậc cao của thuật ngữ; cái gọi là kiểm tra loại III vi phạm lề, kiểm tra từng thuật ngữ trong mô hình sau tất cả các thuật ngữ khác. Định nghĩa về các thử nghiệm Loại II này tương ứng với các thử nghiệm do SAS tạo ra cho các mô hình phân tích phương sai, trong đó tất cả các yếu tố dự đoán là các yếu tố, nhưng không nói chung hơn (nghĩa là khi có các yếu tố dự đoán định lượng). Hãy rất cẩn thận trong việc xây dựng mô hình cho các thử nghiệm loại III, hoặc các giả thuyết được thử nghiệm sẽ không có ý nghĩa.

Thật không may, tôi không thể trả lời bạn câu hỏi thứ hai hoặc thứ ba vì tôi cũng muốn biết điều đó.


Cập nhật nhận xét thử nghiệm :

Không có thử nghiệm Wald, LR và F cho các mô hình hỗn hợp tổng quát. Anovachỉ cho phép "chisq""F"kiểm tra các mô hình hỗn hợp (tức là "mer"các đối tượng được trả về lmer). Phần sử dụng cho biết:

## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3), 
    test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)

Nhưng vì các phép thử F cho mercác đối tượng được tính theo pbkrtest, mà theo hiểu biết của tôi chỉ hoạt động đối với các mô hình hỗn hợp tuyến tính, Anovađối với GLMM sẽ luôn luôn trả về chisq(do đó bạn không thấy sự khác biệt).

Cập nhật về câu hỏi:

Câu trả lời trước của tôi chỉ cố gắng trả lời câu hỏi chính của bạn, sự khác biệt giữa Anova()drop1(). Nhưng bây giờ tôi hiểu rằng bạn muốn kiểm tra xem một số hiệu ứng cố định có đáng kể hay không. Các R-sig-hỗn hợp xây dựng mô hình FAQ nói như sau về vấn đề này:

Kiểm tra các tham số đơn

Từ tồi tệ nhất đến tốt nhất:

  • Kiểm tra Wald Z
  • Đối với các LMM cân bằng, lồng nhau trong đó df có thể được tính toán: Wald t-tests
  • Kiểm tra tỷ lệ khả năng, bằng cách thiết lập mô hình sao cho tham số có thể được tách / bỏ (thông qua anova hoặc drop1) hoặc thông qua các cấu hình khả năng tính toán
  • MCMC hoặc khoảng tin cậy bootstrap tham số

Kiểm tra hiệu ứng (tức là kiểm tra một số tham số đồng thời bằng không)

Từ tồi tệ nhất đến tốt nhất:

  • Kiểm tra Wald chi-vuông (ví dụ: xe :: Anova)
  • Kiểm tra tỷ lệ khả năng (thông qua anova hoặc drop1)
  • Đối với các LMM cân bằng, lồng nhau trong đó df có thể được tính toán: các thử nghiệm F có điều kiện
  • Đối với LMM: kiểm tra F có điều kiện với hiệu chỉnh df (ví dụ: Kenward-Roger trong gói pbkrtest)
  • MCMC hoặc so sánh tham số, hoặc không tham số, bootstrap (bootstrapping không theo tỷ lệ phải được thực hiện cẩn thận để tính đến các yếu tố nhóm)

(nhấn mạnh thêm)

Điều này cho thấy rằng phương pháp sử dụng car::Anova()GLMM của bạn thường không được khuyến nghị, nhưng nên sử dụng phương pháp sử dụng MCMC hoặc bootstrap. Tôi không biết nếu pvals.fnctừ languageRgói woks với GLMM, nhưng nó đáng để thử.


1
Cảm ơn, Henrik. Anova () có thể tính toán ba bài kiểm tra khác nhau: Wald, LR và F. Tôi đã thử cả ba bài kiểm tra, nhưng nó không có gì khác biệt, điều mà tôi thấy kỳ lạ. Tôi có cảm giác rằng chức năng sẽ từ chối sử dụng các thử nghiệm mà nó quyết định không phù hợp với dữ liệu ...
tim.farkas
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.