Trong khi tìm hiểu về Gradient Boosting, tôi chưa nghe về bất kỳ ràng buộc nào liên quan đến các thuộc tính của "trình phân loại yếu" mà phương thức sử dụng để xây dựng và tập hợp mô hình. Tuy nhiên, tôi không thể tưởng tượng một ứng dụng GB sử dụng hồi quy tuyến tính và thực tế khi tôi đã thực hiện một số thử nghiệm - nó không hoạt động. Tôi đã thử nghiệm phương pháp tiêu chuẩn nhất với một dải tổng số dư bình phương và cộng các mô hình tiếp theo lại với nhau.
Vấn đề rõ ràng là phần dư từ mô hình đầu tiên được điền theo cách mà thực sự không có đường hồi quy nào phù hợp nữa. Một quan sát khác của tôi là một tổng các mô hình hồi quy tuyến tính tiếp theo cũng có thể được biểu diễn dưới dạng một mô hình hồi quy đơn (thêm tất cả các hàm và hệ số tương ứng) vì vậy tôi không thể tưởng tượng làm thế nào có thể cải thiện mô hình. Quan sát cuối cùng là hồi quy tuyến tính (cách tiếp cận điển hình nhất) đang sử dụng tổng số dư bình phương làm hàm mất - giống như cách mà GB đang sử dụng.
Tôi cũng đã nghĩ đến việc giảm tốc độ học tập hoặc chỉ sử dụng một tập hợp các yếu tố dự đoán cho mỗi lần lặp, nhưng cuối cùng vẫn có thể được tóm tắt thành một đại diện mô hình duy nhất, vì vậy tôi đoán nó sẽ không cải thiện.
Tôi đang thiếu gì ở đây? Là hồi quy tuyến tính bằng cách nào đó không phù hợp để sử dụng với Gradient Boosting? Có phải vì hồi quy tuyến tính sử dụng tổng số dư bình phương làm hàm mất? Có bất kỳ ràng buộc cụ thể nào đối với các yếu tố dự đoán yếu để chúng có thể được áp dụng cho Gradient Boosting không?