Tôi đã có một bộ dữ liệu bao gồm một loạt các trường hợp "thanh gãy" hàng tháng được tính từ một số ít các trang web. Tôi đang cố gắng để có được một ước tính tóm tắt duy nhất từ hai kỹ thuật khác nhau:
Kỹ thuật 1: Lắp "thanh gãy" với Poisson GLM với biến chỉ báo 0/1 và sử dụng biến thời gian và thời gian ^ 2 để kiểm soát xu hướng theo thời gian. Ước tính của biến chỉ báo 0/1 và SE được gộp lại bằng cách sử dụng phương pháp kỹ thuật khoảnh khắc lên xuống khá thẳng hoặc sử dụng gói tlnise trong R để lấy ước tính "Bayesian". Điều này tương tự như những gì Peng và Dominici làm với dữ liệu ô nhiễm không khí, nhưng với ít trang web hơn (~ một tá).
Kỹ thuật 2: Từ bỏ một số điều khiển cụ thể theo trang web cho các xu hướng theo thời gian và sử dụng mô hình hỗn hợp tuyến tính. Đặc biệt:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
Câu hỏi của tôi liên quan đến các lỗi tiêu chuẩn xuất phát từ các ước tính này. Lỗi tiêu chuẩn của Kỹ thuật 1, thực tế là sử dụng hàng tuần thay vì đặt thời gian hàng tháng và do đó cần có độ chính xác cao hơn , có lỗi tiêu chuẩn về ước tính ~ 0,206 cho phương pháp Phương pháp Khoảnh khắc và ~ 0,303 cho phương pháp tlnise.
Phương pháp lmer cho sai số chuẩn là ~ 0,09. Các ước tính hiệu ứng rất gần nhau, do đó, dường như chúng không tham gia vào các ước tính tóm tắt khác nhau nhiều như mô hình hỗn hợp có hiệu quả cao hơn nhiều.
Đó có phải là một cái gì đó hợp lý để mong đợi? Nếu vậy, tại sao các mô hình hỗn hợp hiệu quả hơn nhiều? Đây là một hiện tượng chung, hay một kết quả cụ thể của mô hình này?