Hồi quy tuyến tính thưa thớt 0-Norm và 1-Norm


8

Chúng tôi có phản hồi và dự đoánYRnX=(x1,x2,,xm)TRn×m

Vấn đề chúng tôi muốn giải quyết là

argminkRm(YXk22+λk0)k0

Tuy nhiên, đó là NP-hard, vì vậy, thay vào đó, chúng tôi giải quyết

argminkRm(YXk22+λk1)k1

Trong bài báo này "Học mô tả vật lý cho khoa học vật liệu bằng cảm biến nén" , người ta nói rằng

với các tính năng tương quan cao, λk1 có thể không phải là một xấp xỉ tốt cho λk0

Những câu hỏi của tôi:

Cả λk0λk1 đặt một ràng buộc về số lượng thành phần khác không của vectơ k . Nhưng khi các tính năng tương quan, lợi thế của k được tìm thấy bởi λk0 gì?

Hơn nữa, có một ví dụ trực quan chứng minh điểm mà tôi đã trích dẫn ở trên?

Câu trả lời:


2
  1. Nếu các tính năng tương quan, bạn nên sử dụng lưới đàn hồi và không lasso.
  2. Một cách đơn giản, nếu hai tính năng tương quan với nhau, lasso sẽ chọn tính năng trên nếu nó có phần thưởng tốt hơn cho hàm mất, điều này có nghĩa là giá trị tuyệt đối nhỏ hơncủa hệ số hồi quy cùng với việc giảm tốt lỗi dự đoán .ij|βi|||yXβ||2
  3. Mặt khác, các phạt -norm dựa sẽ chọn tính năng qua nếu nó dẫn đến sự sụt giảm tốt trong các lỗi dự đoán chỉ , vì kích thước của hệ số không quan trọng, chỉ cần nếu nó khác nhau từ zero (nhớ , ).l0ij||β||0=#{βk0}
  4. Bây giờ, trực giác của tôi sẽ là - và phạt -norm là đều xấu tại dự đoán của các hệ số hồi quy đúng nếu tính năng có tương quan. Bằng chứng của Định lý 2 trong bài viết này sẽ minh họa tại sao đây thực sự là trường hợp. Điều này sẽ mâu thuẫn với tuyên bố và ví dụ về bài báo mà bạn đã trích dẫn, mặc dù.l1l0
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.