Đối với mô hình tuyến tính , thuật ngữ co rút luôn là .
Lý do nào khiến chúng tôi không thu hẹp thuật ngữ (chặn) sai lệch ? Chúng ta có nên thu hẹp thuật ngữ thiên vị trong các mô hình mạng thần kinh?
Đối với mô hình tuyến tính , thuật ngữ co rút luôn là .
Lý do nào khiến chúng tôi không thu hẹp thuật ngữ (chặn) sai lệch ? Chúng ta có nên thu hẹp thuật ngữ thiên vị trong các mô hình mạng thần kinh?
Câu trả lời:
Các yếu tố của học thống kê bởi Hastie et al. định nghĩa hồi quy sườn núi như sau (Mục 3.4.1, phương trình 3.41): tức là loại trừ rõ ràng thuật ngữ chặn khỏi hình phạt sườn núi. β 0
Sau đó, họ viết:
[...] Lưu ý rằng việc chặn đã bị loại khỏi thời hạn phạt. Hình phạt của việc đánh chặn sẽ làm cho thủ tục phụ thuộc vào nguồn gốc được chọn cho ; nghĩa là, việc thêm một hằng số vào mỗi mục tiêu sẽ không chỉ đơn giản dẫn đến sự thay đổi của các dự đoán với cùng một lượng . Y c y i c
Thật vậy, trong sự hiện diện của thuật ngữ đánh chặn, thêm cho tất cả chỉ đơn giản là sẽ dẫn đến tăng như các giá trị tốt và tương ứng tất cả các dự đoán y i cũng sẽ tăng c . Điều này không đúng nếu đánh chặn bị phạt: β 0 sẽ phải tăng ít hơn c .y i β 0 c
Trong thực tế, có một số tính chất tốt và thuận tiện của hồi quy tuyến tính phụ thuộc vào việc có một thuật ngữ chặn (không mở rộng) thích hợp. Ví dụ như giá trị trung bình của và giá trị trung bình của y i đều bình đẳng, và (do đó) các phương nhiều hệ số tương quan R tương đương với hệ số xác định : xem ví dụ chủ đề này để giải thích: Giải thích hình học của nhiều hệ số tương quan và hệ số xác định .
Việc trừng phạt đánh chặn sẽ dẫn đến tất cả những điều đó không còn đúng nữa.
Nhớ lại mục đích của co rút hoặc chính quy. Đó là để ngăn thuật toán học tập phù hợp với dữ liệu đào tạo hoặc tương đương - ngăn chặn việc chọn các giá trị tham số lớn tùy ý. Điều này có nhiều khả năng cho các bộ dữ liệu có nhiều hơn một vài ví dụ đào tạo về sự hiện diện của tiếng ồn (thảo luận rất thú vị về sự hiện diện của tiếng ồn và tác động của nó được thảo luận trong "Học từ dữ liệu" của Yaser Abu-Mustafa). Một mô hình học được trên dữ liệu nhiễu không có tính chính quy sẽ có khả năng hoạt động kém trên một số điểm dữ liệu không nhìn thấy.
Với ý nghĩ này, hãy tưởng tượng bạn có các điểm dữ liệu 2D mà bạn muốn phân loại theo hai lớp. Có tất cả trừ các tham số thiên vị cố định, thay đổi thuật ngữ thiên vị sẽ chỉ di chuyển ranh giới lên hoặc xuống. Bạn có thể khái quát điều này đến một không gian chiều cao hơn.
Thuật toán học tập không thể đặt các giá trị lớn tùy ý cho thuật ngữ sai lệch vì điều này sẽ dẫn đến giá trị tổn thất gộp có thể (mô hình sẽ không phù hợp với dữ liệu đào tạo). Nói cách khác, được đưa ra một số tập huấn luyện, bạn (hoặc một thuật toán học tập) không thể di chuyển mặt phẳng ra xa so với thực tế.
Vì vậy, không có lý do gì để thu hẹp thuật ngữ thiên vị, thuật toán học tập sẽ tìm ra thuật ngữ tốt mà không có nguy cơ thừa.
Một lưu ý cuối cùng: Tôi đã thấy trong một số bài báo rằng khi làm việc trong không gian nhiều chiều để phân loại, không có nhu cầu nghiêm ngặt để mô hình hóa thuật ngữ sai lệch. Điều này có thể hoạt động đối với dữ liệu có thể phân tách tuyến tính vì với nhiều kích thước được thêm vào, có nhiều khả năng hơn để tách hai lớp.
Thuật ngữ chặn hoàn toàn không tránh khỏi co rút. Công thức "co ngót" chung (tức là chính quy hóa) đặt thuật ngữ chính quy trong hàm mất, ví dụ:
Trong trường hợp thường liên quan đến một chuẩn mực Lebesgue, và λ là đại lượng vô hướng kiểm soát trọng lượng bao nhiêu chúng tôi đặt về thời hạn co rút.
Bằng cách đặt thuật ngữ co rút trong hàm mất mát như thế này, nó có ảnh hưởng đến tất cả các hệ số trong mô hình. Tôi nghi ngờ rằng câu hỏi của bạn phát sinh từ một sự nhầm lẫn về ký hiệu trong đó (trong P ( β ) ) là một vector của tất cả các hệ số, bao gồm β 0 . Mô hình tuyến tính của bạn có thể sẽ được viết tốt hơn như y = X β + ε nơi X là "ma trận thiết kế," do đó tôi có nghĩa là nó là dữ liệu của bạn với một cột của 1 ' s gắn vào phía bên tay trái (để có những đánh chặn ).
Bây giờ, tôi không thể nói chuyện chính quy hóa cho các mạng lưới thần kinh. Có thể là đối với các mạng thần kinh, bạn muốn tránh sự thu hẹp của thuật ngữ sai lệch hoặc thiết kế hàm mất thường xuyên khác với công thức tôi đã mô tả ở trên. Tôi chỉ không biết. Nhưng tôi mạnh mẽ nghi ngờ rằng các trọng số và các điều khoản thiên vị được thường xuyên hóa cùng nhau.