Nó thực sự nắm bắt được một trong những kỹ thuật "3B": đóng bao, tăng cường hoặc pha trộn.
Trong việc đóng bao, bạn huấn luyện rất nhiều phân loại trên các tập hợp con khác nhau của đối tượng và kết hợp trung bình các câu trả lời để hồi quy và bỏ phiếu để phân loại (có một số tùy chọn khác cho các tình huống phức tạp hơn, nhưng tôi sẽ bỏ qua nó). Tỷ lệ / phương sai bình chọn có thể được hiểu là xấp xỉ lỗi do các phân loại riêng lẻ thường được coi là độc lập. RF trong thực tế là một đoàn đóng bao.
Boosting là một nhóm các phương thức rộng hơn, tuy nhiên điểm chính của chúng là bạn xây dựng trình phân loại tiếp theo dựa trên phần dư trước đây, theo cách này (về lý thuyết) tăng dần độ chính xác bằng cách làm nổi bật các tương tác ngày càng tinh tế hơn. Do đó, các dự đoán thường được kết hợp bằng cách tính tổng chúng, giống như tính giá trị của hàm theo x bằng cách tính tổng các giá trị của các phần tử chuỗi Taylor của nó cho x.
Hầu hết các phiên bản phổ biến là (Stochastic) Gradient Boosting (với nền tảng toán học tốt đẹp) và AdaBoost (nổi tiếng, trên thực tế là một trường hợp cụ thể của GB). Từ góc độ tổng thể, cây quyết định là một sự thúc đẩy của các phân loại trục chính tầm thường.
Trộn là một ý tưởng của các trình phân loại lồng nhau, tức là chạy một trình phân loại trên một hệ thống thông tin được tạo từ các dự đoán của các trình phân loại khác. Như vậy, nó là một phương thức rất thay đổi và chắc chắn không phải là một thuật toán xác định; có thể yêu cầu rất nhiều đối tượng (trong hầu hết các trường hợp, trình phân loại "máy xay" phải được đào tạo trên một tập hợp các đối tượng không được sử dụng để xây dựng các trình phân loại một phần để tránh lúng túng quá mức).
Các dự đoán của phân loại một phần rõ ràng được kết hợp bằng cách trộn chúng vào một hệ thống thông tin được dự đoán bởi máy xay.