Có một sự khác biệt lớn giữa việc thực hiện ước tính bằng cách sử dụng hình phạt kiểu sườn núi và hình phạt kiểu lasso. Các công cụ ước tính loại sườn có xu hướng thu nhỏ tất cả các hệ số hồi quy về 0 và bị sai lệch, nhưng có một phân phối tiệm cận dễ dàng vì chúng không thu nhỏ bất kỳ biến nào về 0. Sự sai lệch trong các ước tính sườn núi có thể có vấn đề trong việc kiểm tra giả thuyết thực hiện tiếp theo, nhưng tôi không phải là một chuyên gia về điều đó. Mặt khác, hình phạt loại Lasso / lưới đàn hồi thu nhỏ nhiều hệ số hồi quy về 0 và do đó có thể được xem là kỹ thuật chọn mô hình. Vấn đề thực hiện suy luận trên các mô hình được chọn dựa trên dữ liệu thường được gọi là vấn đề suy luận chọn lọc hoặc suy luận sau lựa chọn. Lĩnh vực này đã chứng kiến nhiều sự phát triển trong những năm gần đây.
y~ N( μ , 1 )μμ| y| >c>0cycy
Tương tự, Lasso (hoặc lưới đàn hồi) ràng buộc không gian mẫu theo cách để đảm bảo rằng mô hình đã chọn đã được chọn. Việc cắt ngắn này phức tạp hơn, nhưng có thể được mô tả một cách phân tích.
Dựa trên cái nhìn sâu sắc này, người ta có thể thực hiện suy luận dựa trên phân phối dữ liệu bị cắt ngắn để có được số liệu thống kê kiểm tra hợp lệ. Để biết khoảng tin cậy và thống kê kiểm tra, hãy xem công việc của Lee và cộng sự:
http://projecteuclid.org/euclid.aos/1460381681
Các phương thức của chúng được thực hiện trong gói R selectiveInference .
Ước tính tối ưu (và thử nghiệm) sau khi lựa chọn mô hình được thảo luận trong (đối với Lasso):
https://arxiv.org/abs/1705.09417
và gói phần mềm (ít toàn diện hơn) của họ có sẵn trong:
https://github.com/ammeir2/selectiveMLE