Không, đó là không thể phòng thủ. Rào cản lớn mà các quy trình lựa chọn mô hình được thiết kế để vượt qua là tính chính yếu của hỗ trợ thực sựlà không biết. (Ở đây chúng ta có là hệ số "đúng".) Bởi vìkhông rõ, một quy trình lựa chọn mô hình phải tìm kiếm toàn bộ trên tất cả mô hình có thể; tuy nhiên, nếu chúng ta đã biết, chúng tôi chỉ có thể kiểm tra các mô hình , ít hơn nhiều.β ∗ | S ∗ | 2 p | S ∗ ||S∗|=∣∣{j:β∗j≠0}∣∣β∗|S∗|2p|S∗|(p|S∗|)
Lý thuyết về Lasso dựa vào tham số chính quy đủ lớn để làm cho mô hình được chọn đủ thưa thớt. Có thể là 10 tính năng của bạn quá nhiều hoặc quá ít, vì việc biến giới hạn dưới của thành giới hạn trên trên.λλ|S∗|
Đặt là ước tính dựa trên dữ liệu của chúng tôi cho và đặt . Sau đó, có lẽ bạn đang cố gắng đảm bảo rằng để bạn đã phục hồi ít nhất các tính năng có liên quan? Hoặc có thể bạn đang cố gắng thiết lập để bạn biết rằng các tính năng bạn tìm thấy đều đáng giá? Trong những trường hợp này, quy trình của bạn sẽ hợp lý hơn nếu bạn có thông tin trước về kích thước tương đối của .β^β∗S^={j:β^j≠0}S∗⊆S^S^⊆S∗S∗
Ngoài ra, lưu ý, bạn có thể để một số hệ số không được đánh giá cao khi thực hiện lasso trong, ví dụ , glmnet
.