Để thúc đẩy các thuật toán, tôi sẽ nói rằng chúng phát triển khá tốt. Đầu năm 1995 AdaBoost đã được giới thiệu, sau một thời gian, nó là Máy tăng tốc Gradient (GBM). Gần đây, khoảng năm 2015 XGBoost đã được giới thiệu, chính xác, xử lý quá mức và đã trở thành người chiến thắng trong nhiều cuộc thi Kaggle. Năm 2017 LightGBM được Microsoft giới thiệu, nó cung cấp thời gian đào tạo thấp hơn đáng kể so với XGBoost. Ngoài ra, CatBoost được Yandex giới thiệu để xử lý các tính năng phân loại.
Random Forest được giới thiệu vào đầu những năm 2000, nhưng đã có người kế vị xứng đáng nào cho nó chưa? Tôi nghĩ rằng nếu một thuật toán đóng bao tốt hơn so với Random Forest tồn tại (có thể dễ dàng áp dụng trong thực tế) thì nó sẽ gây được sự chú ý ở những nơi như Kaggle. Ngoài ra, tại sao việc tăng tốc trở thành kỹ thuật hòa tấu phổ biến hơn, có phải vì bạn có thể xây dựng ít cây hơn để dự đoán tối ưu?