Câu hỏi được gắn thẻ «regularization»

Bao gồm các ràng buộc bổ sung (thường là một hình phạt cho sự phức tạp) trong quy trình điều chỉnh mô hình. Được sử dụng để ngăn chặn quá mức / tăng cường độ chính xác dự đoán.






3
Tại sao sử dụng ước tính Lasso trên ước tính OLS trên tập hợp con của Lasso được xác định?
L(β)=(Xβ−y)′(Xβ−y)+λ∥β∥1,L(β)=(Xβ−y)′(Xβ−y)+λ‖β‖1,L(\beta)=(X\beta-y)'(X\beta-y)+\lambda\|\beta\|_1,kkkβ^lasso=(β^lasso1,β^lasso2,...,β^lassok,0,...0)β^lasso=(β^1lasso,β^2lasso,...,β^klasso,0,...0)\hat{\beta}^{lasso}=\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso},0,...0\right) Chúng tôi biết rằng (β^lasso1,β^lasso2,...,β^lassok)(β^1lasso,β^2lasso,...,β^klasso)\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso}\right) là một ước tính sai lệch của (β1,β2,...,βk)(β1,β2,...,βk)\left(\beta_1,\beta_2,...,\beta_k\right) , vậy tại sao chúng ta vẫn lấy β^lassoβ^lasso\hat{\beta}^{lasso} làm giải pháp cuối cùng, thay vì 'hợp lý' hơn β^new=(β^new1:k,0,...,0)β^new=(β^1:knew,0,...,0)\hat{\beta}^{new}=\left(\hat{\beta}_{1:k}^{new},0,...,0\right) , trong đó β^new1:kβ^1:knew\hat{\beta}_{1:k}^{new} là ước tính LS từ mô hình một phần Lnew(β1:k)=(X1:kβ−y)′(X1:kβ−y)Lnew(β1:k)=(X1:kβ−y)′(X1:kβ−y)L^{new}(\beta_{1:k})=(X_{1:k}\beta-y)'(X_{1:k}\beta-y) . ( …

5
Làm thế nào các thành phần chính hàng đầu có thể giữ sức mạnh dự đoán trên một biến phụ thuộc (hoặc thậm chí dẫn đến dự đoán tốt hơn)?
Giả sử tôi đang chạy một hồi quy . Tại sao bằng cách chọn các thành phần nguyên tắc hàng đầu của , mô hình có giữ được khả năng dự đoán của nó trên không?Y∼ XY∼XY \sim XkkkXXXYYY Tôi hiểu rằng từ chiều giảm / điểm tính năng lựa …


3
Giải thích chính quy sườn núi trong hồi quy
Tôi có một số câu hỏi liên quan đến hình phạt sườn núi trong bối cảnh bình phương nhỏ nhất: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) Biểu thức cho thấy ma trận hiệp phương sai của X được thu nhỏ theo ma trận đường chéo, nghĩa là (giả sử …


2
Tại sao lambda và trong một lỗi tiêu chuẩn từ mức tối thiểu là giá trị được đề xuất cho lambda trong hồi quy mạng đàn hồi?
Tôi hiểu vai trò của lambda trong hồi quy lưới đàn hồi. Và tôi có thể hiểu tại sao người ta lại chọn lambda.min, giá trị của lambda giúp giảm thiểu lỗi xác thực chéo. Câu hỏi của tôi là Trường hợp nào trong tài liệu thống kê được khuyến …




3
Tại sao Lars và Glmnet đưa ra các giải pháp khác nhau cho vấn đề Lasso?
Tôi muốn hiểu rõ hơn về các gói R Larsvà Glmnet, được sử dụng để giải quyết vấn đề Lasso: (đối với Biến và mẫu, xem www.stanford.edu/~hastie/Papers/glmnet.pdf trên trang 3)pmin(β0β)∈Rp+1[12N∑i=1N(yi−β0−xTiβ)2+λ||β||l1]min(β0β)∈Rp+1[12N∑i=1N(yi−β0−xiTβ)2+λ||β||l1]min_{(\beta_0 \beta) \in R^{p+1}} \left[\frac{1}{2N}\sum_{i=1}^{N}(y_i-\beta_0-x_i^T\beta)^2 + \lambda||\beta ||_{l_{1}} \right]pppNNN Do đó, tôi đã áp dụng cả hai trên cùng một tập …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.