1) Bạn đang đi sai hướng bằng cách gọi trực tiếp đối ngẫu. Để có được từ
arg minβ:∥β∥1≤t∥y−Xβ∥22
đến
arg minβ∥y−Xβ∥22+λ∥β∥1
bạn chỉ cần gọi số nhân Lagrange. (Xem, ví dụ Mục 5.1 của [1])
LM thường được thảo luận trong bối cảnh đối ngẫu khi dạy chúng, nhưng trong thực tế, bạn chỉ có thể chuyển đổi trực tiếp từ cái này sang cái khác mà không cần xem xét vấn đề kép.
Nếu bạn quan tâm đến vấn đề kép của Lasso, thì nó đã được giải quyết trên Slides 12 và 13 của [2]
2) Những gì bạn có thể đã thấy là điều kiện KKT Stationarity cho Lasso:
arg min12∥y−Xβ∥22+λ∥β∥1⟺−XT(y−Xβ^)+λs=0 for some s∈∂∥β^∥1
trong đó được gọi là phân số phụ của định mức . (Đây thực chất chỉ là điều kiện "đạo hàm bằng 0 ở mức tối thiểu" tiêu chuẩn từ tính toán, nhưng được điều chỉnh cho không khác biệt.)∂∥β∥1ℓ1
Chúng tôi biết phân biệt của if vì vậy phương trình này đưa ra một giải pháp dạng đóng chính xác cho lasso nếu chúng ta biết hỗ trợ và dấu hiệu của giải pháp . Cụ thể là|βi|=sign(βi)βi≠0
β^S^=(XTS^XS^)−1(XTS^y−λ∗sign(β^S^))
(Ngoài ra: giải pháp này làm cho hiệu ứng "co rút" của Lasso (so với OLS) rất rõ ràng.)
Tất nhiên, phần khó của việc giải lasso là tìm ra sự hỗ trợ và dấu hiệu của giải pháp, vì vậy điều này không hữu ích lắm trong thực tế.
Tuy nhiên, đây là một cấu trúc lý thuyết rất hữu ích và có thể được sử dụng để chứng minh rất nhiều tính chất tốt đẹp của Lasso; quan trọng nhất, nó cho phép chúng ta sử dụng kỹ thuật "nhân chứng kép nguyên thủy" để thiết lập các điều kiện theo đó Lasso phục hồi tập hợp các biến "thực". Xem Phần 11.4 của [3].
[1] S. Boyd và L. Vandenberghe. Tối ưu hoá trực quan. Có sẵn tại https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf
[2] http://www.stat.cmu.edu/~ryantibs/convexopt-F15/lectures/13-dual-corres.pdf
[3] T. Hastie, R. Tibshirani, M. Wainwright. Học thống kê với độ thưa thớt: Lasso và khái quát hóa. Có sẵn tại https://web.stanford.edu/~hastie/StatLearnSparsity_files/SLS_corrected_1.4.16.pdf