Câu hỏi được gắn thẻ «lasso»

Một phương pháp chính quy cho các mô hình hồi quy thu nhỏ các hệ số về 0, làm cho một số trong số chúng bằng 0. Do đó lasso thực hiện lựa chọn tính năng.




1
Là hồi quy với chính quy hóa L1 giống như Lasso và với chính quy hóa L2 có giống như hồi quy sườn không? Và làm thế nào để viết được L LỊCH
Tôi là một kỹ sư phần mềm học máy học, đặc biệt thông qua các khóa học máy của Andrew Ng . Trong khi nghiên cứu hồi quy tuyến tính với chính quy , tôi đã tìm thấy các thuật ngữ khó hiểu: Hồi quy với chuẩn hóa L1 hoặc …





2
Lắp mô hình ARIMAX với chính quy hóa hoặc xử phạt (ví dụ: với lasso, lưới đàn hồi hoặc hồi quy sườn)
Tôi sử dụng hàm auto.arima () trong gói dự báo để phù hợp với các mô hình ARMAX với nhiều biến số khác nhau. Tuy nhiên, tôi thường có một số lượng lớn các biến để chọn và thường kết thúc với một mô hình cuối cùng hoạt động với …



1
Độ tự do có thể là một số không nguyên?
Khi tôi sử dụng GAM, nó mang lại cho tôi DF còn lại là (dòng cuối cùng trong mã). Điều đó nghĩa là gì? Vượt ra ngoài ví dụ về GAM, nói chung, số bậc tự do có thể là một số không nguyên?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



3
Tại sao sử dụng ước tính Lasso trên ước tính OLS trên tập hợp con của Lasso được xác định?
L(β)=(Xβ−y)′(Xβ−y)+λ∥β∥1,L(β)=(Xβ−y)′(Xβ−y)+λ‖β‖1,L(\beta)=(X\beta-y)'(X\beta-y)+\lambda\|\beta\|_1,kkkβ^lasso=(β^lasso1,β^lasso2,...,β^lassok,0,...0)β^lasso=(β^1lasso,β^2lasso,...,β^klasso,0,...0)\hat{\beta}^{lasso}=\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso},0,...0\right) Chúng tôi biết rằng (β^lasso1,β^lasso2,...,β^lassok)(β^1lasso,β^2lasso,...,β^klasso)\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso}\right) là một ước tính sai lệch của (β1,β2,...,βk)(β1,β2,...,βk)\left(\beta_1,\beta_2,...,\beta_k\right) , vậy tại sao chúng ta vẫn lấy β^lassoβ^lasso\hat{\beta}^{lasso} làm giải pháp cuối cùng, thay vì 'hợp lý' hơn β^new=(β^new1:k,0,...,0)β^new=(β^1:knew,0,...,0)\hat{\beta}^{new}=\left(\hat{\beta}_{1:k}^{new},0,...,0\right) , trong đó β^new1:kβ^1:knew\hat{\beta}_{1:k}^{new} là ước tính LS từ mô hình một phần Lnew(β1:k)=(X1:kβ−y)′(X1:kβ−y)Lnew(β1:k)=(X1:kβ−y)′(X1:kβ−y)L^{new}(\beta_{1:k})=(X_{1:k}\beta-y)'(X_{1:k}\beta-y) . ( …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.