Làm thế nào để tăng nhẹ nhàng khác với AdaBoost?


14

Có một biến thể của boosting được gọi là gentboost . Làm thế nào để tăng nhẹ nhàng khác với AdaBoost nổi tiếng ?


Những biến thể khác? Nó có thể hữu ích để thắt chặt câu hỏi này một chút (cụ thể hơn).
Shane

Đúng; nó chỉ là một biến thể trong số những người khác.

OK, tôi sẽ yêu cầu so sánh với adaboost vì đó có lẽ là thứ được biết đến nhiều nhất.
Vebjorn Ljosa

Câu trả lời:


6

Bài báo thứ hai bạn trích dẫn dường như chứa câu trả lời cho câu hỏi của bạn. Tóm lại; về mặt toán học, sự khác biệt chính là hình dạng của hàm mất đang được sử dụng. Hàm mất mát của Friedman, Hastie và Tibshirani dễ dàng tối ưu hóa hơn ở mỗi lần lặp. -

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.