Như đã chỉ ra trước đây trong chủ đề này và các chủ đề khác: (1) Thử nghiệm Durbin-Watson không có kết luận. Chỉ có các ranh giới được đề xuất ban đầu bởi Durbin và Watson là do phân phối chính xác phụ thuộc vào ma trận hồi quy quan sát được. Tuy nhiên, điều này là đủ dễ dàng để giải quyết trong phần mềm thống kê / kinh tế lượng bây giờ. (2) Có những khái quát về thử nghiệm Durbin-Watson đến độ trễ cao hơn. Vì vậy, không có tính không thống nhất cũng như giới hạn độ trễ là một lập luận chống lại thử nghiệm Durbin-Watson.
So với thử nghiệm Wald của biến phụ thuộc bị trễ, thử nghiệm Durbin-Watson có thể có công suất cao hơn trong một số mô hình nhất định. Cụ thể, nếu mô hình chứa xu hướng xác định hoặc mẫu theo mùa, có thể tốt hơn để kiểm tra tự động tương quan trong phần dư (như thử nghiệm Durbin-Watson thực hiện) so với phản hồi bị trễ (chưa được điều chỉnh cho mẫu xác định) . Tôi bao gồm một mô phỏng R nhỏ dưới đây.
Một nhược điểm quan trọng của thử nghiệm Durbin-Watson là nó không được áp dụng cho các mô hình đã có hiệu ứng tự động. Do đó, bạn không thể kiểm tra độ tự động còn lại sau khi chụp một phần trong mô hình tự động. Trong kịch bản đó, sức mạnh của thử nghiệm Durbin-Watson có thể bị phá vỡ hoàn toàn trong khi đối với thử nghiệm Breusch-Godfrey, chẳng hạn, thì không. Cuốn sách "Kinh tế lượng ứng dụng với R" của chúng tôi có một nghiên cứu mô phỏng nhỏ cho thấy điều này trong chương "Lập trình phân tích của riêng bạn", xem http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .
Tuy nhiên, đối với một tập dữ liệu có xu hướng cộng với lỗi tự động, sức mạnh của thử nghiệm Durbin-Watson cao hơn so với thử nghiệm Breusch-Godfrey, và cũng cao hơn so với thử nghiệm Wald về hiệu ứng tự phát. Tôi minh họa điều này cho một kịch bản nhỏ đơn giản trong R. Tôi rút ra 50 quan sát từ một mô hình như vậy và tính giá trị p cho cả ba thử nghiệm:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Sau đó, chúng ta có thể mô phỏng 1000 giá trị p cho cả ba mô hình:
set.seed(1)
p <- t(replicate(1000, pvals()))
Thử nghiệm Durbin-Watson dẫn đến giá trị p trung bình thấp nhất
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
và công suất cao nhất ở mức ý nghĩa 5%:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248