Một lời giải thích trực quan về thuật toán AdaBoost
Hãy để tôi xây dựng dựa trên câu trả lời xuất sắc của @ Randel với một minh họa về điểm sau đây
- Trong Adaboost, 'thiếu sót' được xác định bởi các điểm dữ liệu trọng lượng cao
Tóm tắt lại AdaBoost
Gm(x) m=1,2,...,M
G ( x ) = dấu ( α1G1( x ) + α2G2( x ) + . . . αMGM( x ) ) = dấu ( ∑m = 1MαmGm( x ) )
AdaBoost trên một ví dụ đồ chơi
M= 10
Hình dung trình tự của người học yếu và trọng lượng mẫu
m = 1 , 2 ... , 6
Lặp lại đầu tiên:
- Ranh giới quyết định rất đơn giản (tuyến tính) vì đây là những người học dệt
- Tất cả các điểm có cùng kích thước, như mong đợi
- 6 điểm màu xanh nằm trong vùng màu đỏ và bị phân loại sai
Lặp lại thứ hai:
- Ranh giới quyết định tuyến tính đã thay đổi
- Các điểm màu xanh được phân loại sai trước đây giờ lớn hơn (mẫu lớn hơn) và đã ảnh hưởng đến ranh giới quyết định
- 9 điểm màu xanh hiện bị phân loại sai
Kết quả cuối cùng sau 10 lần lặp
αm
([1.041, 0.875, 0.837, 0.781, 1.04, 0.938 ...
Như mong đợi, lần lặp đầu tiên có hệ số lớn nhất vì nó là lần lặp có ít phân loại sai nhất.
Bước tiếp theo
Một lời giải thích trực quan về việc tăng cường độ dốc - sẽ được hoàn thành
Nguồn và đọc thêm: