Tôi mới đến ML. Tôi được thông báo rằng việc bình thường hóa L2 của hồi quy sườn không trừng phạt việc chặn . Như trong hàm chi phí: Thuật ngữ chuẩn hóa L2 chỉ tính tổng từ đến , không phải từ đến . Tôi cũng đọc rằng:
trong hầu hết các trường hợp (tất cả các trường hợp?), tốt hơn hết là bạn không nên thường xuyên hóa , vì không thể giảm quá mức và thu hẹp không gian của các chức năng có thể biểu diễn
xuất phát từ câu trả lời cuối cùng của user48956 về Tại sao mô hình hồi quy tuyến tính chặn không dự đoán tốt hơn mô hình có chặn?
Tôi bối rối về cách giải đạo hàm của hàm chi phí, vì: trong đó , và .Θ
Qqq và khác nhau. Do đó chúng không thể được trộn lẫn từ quan điểm của tôi. Và đạo hàm là về có chứa . Sau khi googling và xem các câu hỏi trên diễn đàn này, vẫn không có cách nào để tôi có được giải pháp: Ai có thể cho tôi manh mối không? Cảm ơn trước sự giúp đỡ của bạn! Θ=(XTX+λ*Tôi) - 1 XTY
Tuy nhiên, tôi nghĩ có hai cách khắc phục nhanh vấn đề này:
Trước hết, chúng tôi không thêm cột tất cả 1 tới . Cụ thể là . Điều đó có nghĩa là chúng tôi không bao gồm phần chặn trong mô hình: Tôi tin rằng phương pháp này được áp dụng trong cuốn sách kinh điển Machine Learning in Action của Peter Harrington mà tôi hiện đang đọc. Trong quá trình thực hiện hồi quy sườn (P166 và P177 nếu bạn cũng có sách), tất cả được chuyển sang hồi quy sườn không có tất cả 1 cột.X = [ X ( 1 ) 1 X ( 1 ) 2 . . . X ( 1 ) n X ( 2 ) 1 X ( 2 ) 2 . . . X ( 2 ) n . . . X ( m ) 1 X ( m ) 2 . . . X ( m ) n y= θ 1 X 1 + θ 2 X 2 +. . . + θ n X n . X
Thứ hai, việc đánh chặn cũng đang bị trừng phạt trong thực tế.
Hồi quy logistic của scikit thường xuyên chặn đánh chặn theo mặc định.
mà một lần nữa xuất phát từ câu trả lời cuối cùng của user48956 về Tại sao mô hình hồi quy tuyến tính chặn không dự đoán tốt hơn mô hình có chặn?
Cả hai cách khắc phục nhanh đều dẫn đến giải pháp
Vì vậy, đạo hàm của bình thường hóa L2 của hồi quy sườn thực sự có thể được giải quyết hay chỉ được giải quyết bằng cách sửa chữa nhanh chóng?