Tôi nghĩ rằng đó là sự khác biệt của các bài kiểm tra được tính toán. car::Anova
sử dụng các bài kiểm tra Wald, trong khi drop1
cải tiến mô hình bỏ các thuật ngữ đơn lẻ. John Fox đã từng viết cho tôi, rằng Wald kiểm tra và thử nghiệm từ các mô hình được tinh chỉnh bằng các thử nghiệm tỷ lệ khả năng (nghĩa là chiến lược từ drop1
) đồng ý cho các mô hình tuyến tính nhưng không nhất thiết là phi tuyến tính. Thật không may, thư này nằm ngoài danh sách và không chứa bất kỳ tài liệu tham khảo nào. Nhưng tôi biết rằng cuốn sách của ông có một chương về các bài kiểm tra Wald, có thể chứa thông tin mong muốn.
Trợ giúp để car::Anova
nói:
Các bài kiểm tra loại II được tính theo nguyên tắc cận biên, kiểm tra từng thuật ngữ sau tất cả các thuật ngữ khác, ngoại trừ bỏ qua các họ hàng bậc cao của thuật ngữ; cái gọi là kiểm tra loại III vi phạm lề, kiểm tra từng thuật ngữ trong mô hình sau tất cả các thuật ngữ khác. Định nghĩa về các thử nghiệm Loại II này tương ứng với các thử nghiệm do SAS tạo ra cho các mô hình phân tích phương sai, trong đó tất cả các yếu tố dự đoán là các yếu tố, nhưng không nói chung hơn (nghĩa là khi có các yếu tố dự đoán định lượng). Hãy rất cẩn thận trong việc xây dựng mô hình cho các thử nghiệm loại III, hoặc các giả thuyết được thử nghiệm sẽ không có ý nghĩa.
Thật không may, tôi không thể trả lời bạn câu hỏi thứ hai hoặc thứ ba vì tôi cũng muốn biết điều đó.
Cập nhật nhận xét thử nghiệm :
Không có thử nghiệm Wald, LR và F cho các mô hình hỗn hợp tổng quát. Anova
chỉ cho phép "chisq"
và "F"
kiểm tra các mô hình hỗn hợp (tức là "mer"
các đối tượng được trả về lmer
). Phần sử dụng cho biết:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Nhưng vì các phép thử F cho mer
các đối tượng được tính theo pbkrtest
, mà theo hiểu biết của tôi chỉ hoạt động đối với các mô hình hỗn hợp tuyến tính, Anova
đối với GLMM sẽ luôn luôn trả về chisq
(do đó bạn không thấy sự khác biệt).
Cập nhật về câu hỏi:
Câu trả lời trước của tôi chỉ cố gắng trả lời câu hỏi chính của bạn, sự khác biệt giữa Anova()
và drop1()
. Nhưng bây giờ tôi hiểu rằng bạn muốn kiểm tra xem một số hiệu ứng cố định có đáng kể hay không. Các R-sig-hỗn hợp xây dựng mô hình FAQ nói như sau về vấn đề này:
Kiểm tra các tham số đơn
Từ tồi tệ nhất đến tốt nhất:
- Kiểm tra Wald Z
- Đối với các LMM cân bằng, lồng nhau trong đó df có thể được tính toán: Wald t-tests
- Kiểm tra tỷ lệ khả năng, bằng cách thiết lập mô hình sao cho tham số có thể được tách / bỏ (thông qua anova hoặc drop1) hoặc thông qua các cấu hình khả năng tính toán
- MCMC hoặc khoảng tin cậy bootstrap tham số
Kiểm tra hiệu ứng (tức là kiểm tra một số tham số đồng thời bằng không)
Từ tồi tệ nhất đến tốt nhất:
- Kiểm tra Wald chi-vuông (ví dụ: xe :: Anova)
- Kiểm tra tỷ lệ khả năng (thông qua anova hoặc drop1)
- Đối với các LMM cân bằng, lồng nhau trong đó df có thể được tính toán: các thử nghiệm F có điều kiện
- Đối với LMM: kiểm tra F có điều kiện với hiệu chỉnh df (ví dụ: Kenward-Roger trong gói pbkrtest)
- MCMC hoặc so sánh tham số, hoặc không tham số, bootstrap (bootstrapping không theo tỷ lệ phải được thực hiện cẩn thận để tính đến các yếu tố nhóm)
(nhấn mạnh thêm)
Điều này cho thấy rằng phương pháp sử dụng car::Anova()
GLMM của bạn thường không được khuyến nghị, nhưng nên sử dụng phương pháp sử dụng MCMC hoặc bootstrap. Tôi không biết nếu pvals.fnc
từ languageR
gói woks với GLMM, nhưng nó đáng để thử.