Đừng nhầm lẫn giữa việc xử lý các yếu tố dự đoán (thông qua người học cơ sở, ví dụ như gốc cây) và việc xử lý chức năng mất trong việc tăng cường. Mặc dù AdaBoost có thể được coi là tìm kiếm sự kết hợp của những người học cơ sở để giảm thiểu lỗi phân loại sai, bài báo "Hồi quy logistic bổ sung" mà bạn trích dẫn cho thấy nó cũng có thể được tạo ra để giảm thiểu hàm mất theo hàm mũ. Cái nhìn sâu sắc này đã mở ra cách tiếp cận thúc đẩy cho một loạt các vấn đề về máy học nhằm giảm thiểu các chức năng mất khác nhau, thông qua việc tăng cường độ dốc . Phần dư phù hợp ở mỗi bước là phần dư giả được tính từ độ dốc của hàm mất. Ngay cả khi các yếu tố dự đoán được mô hình hóa thành gốc nhị phân, thì đầu ra của mô hình do đó không cần phải là lựa chọn nhị phân.
Như một câu trả lời khác nêu rõ, người học cơ sở tuyến tính có thể không hoạt động để tăng cường, nhưng người học cơ sở tuyến tính không bắt buộc phải có "hồi quy tăng cường" theo nghĩa tiêu chuẩn hoặc theo nghĩa logistic. Các gốc cây quyết định phi tuyến tính có thể được kết hợp như những người học cơ sở chậm để giảm thiểu các hàm mất thích hợp. Nó vẫn được gọi là "hồi quy tăng cường" mặc dù nó khác xa so với mô hình hồi quy tiêu chuẩn tuyến tính trong các hệ số của các yếu tố dự đoán. Hàm mất có thể giống nhau về mặt chức năng đối với các mô hình tuyến tính và mô hình "hồi quy tăng cường" với gốc cây hoặc cây làm công cụ dự đoán. Chương 8 của ISLR làm cho điều này khá rõ ràng.
Vì vậy, nếu bạn muốn một hồi quy logistic tương đương với hồi quy tăng cường, hãy tập trung vào chức năng mất hơn là vào những người học cơ sở. Đó là cách tiếp cận LogitBoost trong bài báo mà bạn trích dẫn: giảm thiểu tổn thất log thay vì mất theo cấp số nhân ẩn trong adaboost. Trang Wikipedia AdaBoost mô tả sự khác biệt này.
Nhiều người tham gia trong trang này sẽ lập luận rằng dự đoán dựa trên tỷ lệ cược / xác suất dựa trên xác suất rất thích hợp với dự đoán phân loại có / không nghiêm ngặt, vì trước đây thường cho phép đánh đổi khác nhau giữa các chi phí bổ sung của dự đoán dương tính giả và âm tính giả . Như câu trả lời cho câu hỏi liên quan của bạn chỉ ra, có thể có được xác suất ước tính từ trình phân loại mạnh có nguồn gốc từ AdaBoost, nhưng LogitBoost có thể cho hiệu suất tốt hơn.
Việc triển khai tăng cường độ dốc để phân loại có thể cung cấp thông tin về các xác suất cơ bản. Ví dụ: trang này về tăng cường độ dốc cho thấy cách sklearn
mã cho phép lựa chọn giữa mất độ lệch cho hồi quy logistic và mất theo hàm mũ cho AdaBoost và các hàm tài liệu để dự đoán xác suất từ mô hình tăng cường độ dốc.