Xác thực chéo cho hồi quy mạng đàn hồi: lỗi bình phương so với tương quan trên tập kiểm tra


7

Xem xét hồi quy mạng đàn hồi với glmnettham số giống như của hàm mấtTôi có một bộ dữ liệu với n \ ll p (tương ứng 44 và 3000) và tôi đang sử dụng xác thực chéo 11 lần lặp lại để chọn các tham số chính quy tối ưu \ alpha\ lambda . Thông thường tôi sẽ sử dụng lỗi bình phương làm chỉ số hiệu suất trên tập kiểm tra, ví dụ: số liệu giống như bình phương R này: L_ \ text {test} = 1- \ frac {\ lVert y_ \ text {test} - \ hat \ beta_0 - X_ \ text {test} \ hat \ beta \ rVert ^ 2} {\ lVert y_ \ text {test} - \ hat \ beta_0 \ rVert ^ 2},

L=12nyβ0Xβ2+λ(αβ1+(1α)β22/2).
npαλ
Ltest=1ytestβ^0Xtestβ^2ytestβ^02,
nhưng lần này tôi cũng đã thử sử dụng số liệu tương quan (lưu ý rằng đối với hồi quy OLS không được chuẩn hóa, giảm thiểu sai số bình phương tương đương với tối đa hóa tương quan):
Ltest=corr(ytest,Xtestβ^).

Rõ ràng là hai số liệu hiệu suất không chính xác tương đương, nhưng thật là thú vị, họ không đồng ý chứ không phải mạnh mẽ:

Xác thực chéo đàn hồi

Đặc biệt lưu ý những gì xảy ra ở các bảng chữ cái nhỏ, ví dụ α=.2 (đường màu xanh lá cây): đạt được mối tương quan với tập kiểm tra tối đa khi tập kiểm tra R2 giảm đáng kể so với mức tối đa của nó. Nói chung, đối với bất kỳ \ alpha đã cho nào α, mối tương quan dường như được tối đa hóa ở λ lớn hơn lỗi bình phương.

Tại sao nó xảy ra và làm thế nào để đối phó với nó? Những tiêu chí nào nên được ưu tiên? Có ai gặp phải hiệu ứng này?


Các nếp gấp CV có giống hệt nhau trong mỗi thí nghiệm không?
Alexey Burnakov

@AlexeyBurnakov Có. Vòng lặp trên các tham số chính quy là bên trong vòng lặp trên các nếp gấp.
amip

Nếu các mô hình trong cả hai biểu đồ đều giống nhau, tôi sẽ nói rằng kết quả không có ý nghĩa cho đến khi có một số sai lầm trong tính toán. Tôi đã thử đàn hồi, nhưng không phải với các số liệu hiệu suất.
Alexey Burnakov

thực tế, với CV, số liệu tổn thất được tính trung bình trên các lần kiểm tra và trong trường hợp của bạn, R ^ 2 không phải phù hợp chính xác với mối tương quan ^ 2, phải không? Có lẽ sự khác biệt nằm ở chỗ các giá trị của một trong hai số liệu tổn thất rất không đồng đều trong các lần kiểm tra CV? Ví dụ, 0.5, 0.9, 0.1, 0.99, 0.05, trong đó trung bình sẽ tạo ra một nhân vật kỳ lạ cuối cùng hoàn toàn không khớp với của người khác?
Alexey Burnakov

1
Không chắc ý của bạn là gì @AlexeyBurnakov. Nhưng trong mọi trường hợp, hãy xem câu trả lời mà tôi vừa đăng.
amip

Câu trả lời:


5

Tôi nghĩ rằng tôi đã tìm ra những gì đã xảy ra ở đây.

Lưu ý rằng giá trị tương quan không phụ thuộc vào độ dài của . Vì vậy, nếu tương quan kiểm tra tiếp tục tăng trong khi những giọt thử nghiệm R-squared, nó có thể chỉ ra rằng không phải là tối ưu và mở rộng quy mô lên hoặc xuống bởi một vô hướng yếu tố có thể giúp đỡ.β^β^β^

Sau khi nhận ra điều này, tôi nhớ rằng đã có nhiều tuyên bố trong tài liệu về tính đàn hồi và thậm chí cả Lasso, "thu nhỏ quá mức" các hệ số. Đối với Lasso, có một quy trình "thư giãn Lasso" nhằm sửa đổi sự thiên vị này: xem Ưu điểm của việc thực hiện "nhân đôi" hay thực hiện Lasso hai lần? . Đối với lưới đàn hồi, bài báo gốc Zou & Hastie 2005 thực sự ủng hộ việc tăng tỷ lệ theo một yếu tố không đổi, xem Tại sao glmnet sử dụng lưới đàn hồi "ngây thơ" từ giấy gốc của Zou & Hastie? . Tỷ lệ như vậy sẽ không thay đổi giá trị tương quan nhưng sẽ ảnh hưởng đến bình phương R.β^

Khi tôi áp dụng tỷ lệ heuristic Zou & Hastie tôi nhận được kết quả sau:

β^=(1+λ(1α))β^,

nhập mô tả hình ảnh ở đây

Ở đây, các đường liền nét giống như trong hình trong câu hỏi của tôi trong khi các đường đứt nét ở ô phụ bên trái sử dụng bản beta được chia tỷ lệ lại. Bây giờ cả hai số liệu được tối đa hóa bởi xung quanh cùng các giá trị của và .αλ

Ma thuật!


1
Làm tốt! Tinh tế ...
Matthew Drury
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.