Học tập đồng bộ đề cập đến khá nhiều phương pháp khác nhau. Tăng cường và đóng bao có lẽ là hai phổ biến nhất. Có vẻ như bạn đang cố gắng thực hiện một phương pháp học tập đồng bộ gọi là xếp chồng . Xếp chồng nhằm mục đích cải thiện độ chính xác bằng cách kết hợp các dự đoán từ một số thuật toán học tập. Có khá nhiều cách để thực hiện xếp chồng và không có nhiều lý thuyết nghiêm ngặt. Đó là trực quan và phổ biến mặc dù.
Hãy xem xét cách tiếp cận của bạn bè. Bạn đang điều chỉnh các mô hình lớp đầu tiên trên bốn trong năm lần và sau đó điều chỉnh mô hình lớp thứ hai (biểu quyết) bằng cách sử dụng cùng bốn lần. Vấn đề là lớp thứ hai sẽ ưu tiên cho mô hình có lỗi đào tạo thấp nhất. Bạn đang sử dụng cùng một dữ liệu để phù hợp với các mô hình và đưa ra một quy trình để tổng hợp các mô hình đó. Lớp thứ hai nên kết hợp các mô hình bằng cách sử dụng các dự đoán ngoài mẫu . Phương pháp của bạn tốt hơn, nhưng vẫn có cách để làm tốt hơn nữa.
Chúng tôi sẽ tiếp tục để lại một lần cho mục đích thử nghiệm. Thực hiện bốn lần và sử dụng CV 4 lần để có được các dự đoán ngoài mẫu cho từng mô hình lớp đầu tiên của bạn trên tất cả bốn lần. Đó là, bỏ qua một trong bốn lần và khớp với các mô hình trên ba lần còn lại và sau đó dự đoán về dữ liệu bị giữ lại. Lặp lại cho tất cả bốn lần để bạn có được dự đoán ngoài mẫu trên cả bốn lần. Sau đó, phù hợp với mô hình lớp thứ hai trên các dự đoán ngoài mẫu này. Sau đó lắp lại các mô hình lớp đầu tiên trên cả bốn nếp gấp. Bây giờ bạn có thể đi đến lần thứ năm mà bạn chưa chạm vào. Sử dụng các mô hình lớp đầu tiên phù hợp với tất cả bốn nếp gấp cùng với mô hình lớp thứ hai để ước tính lỗi trên dữ liệu bị giữ. Bạn có thể lặp lại quá trình này một lần nữa với các nếp gấp khác được giữ ngoài mô hình lớp thứ nhất và lớp thứ hai.
Nếu bạn hài lòng với hiệu suất thì hãy tạo các dự đoán ngoài mẫu cho các mô hình lớp đầu tiên trên tất cả năm nếp gấp và sau đó khớp với mô hình lớp thứ hai trên các mô hình này. Sau đó, khớp các mô hình lớp đầu tiên lần cuối trên tất cả dữ liệu của bạn và sử dụng các mô hình này với mô hình lớp thứ hai trên bất kỳ dữ liệu mới nào!
Cuối cùng, một số lời khuyên chung. Bạn sẽ nhận được nhiều lợi ích hơn nếu các mô hình lớp đầu tiên của bạn khá khác biệt với nhau. Bạn đang đi đúng hướng ở đây bằng cách sử dụng SVM và các cây quyết định, khá khác nhau. Vì có một hiệu ứng trung bình từ mô hình lớp thứ hai, bạn có thể muốn thử tăng quá mức các mô hình lớp đầu tiên của mình, đặc biệt nếu bạn có rất nhiều trong số chúng. Lớp thứ hai nói chung là một cái gì đó đơn giản và các ràng buộc như không tiêu cực về trọng lượng và tính đơn điệu là phổ biến. Cuối cùng, hãy nhớ rằng việc xếp chồng phụ thuộc vào xác nhận chéo, đây chỉ là ước tính về rủi ro thực sự. Nếu bạn nhận được tỷ lệ lỗi rất khác nhau và trọng lượng mô hình rất khác nhau trên các nếp gấp, điều đó cho thấy rằng ước tính rủi ro dựa trên cv của bạn có phương sai cao. Trong trường hợp đó, bạn có thể muốn xem xét một sự pha trộn đơn giảncủa các mô hình lớp đầu tiên của bạn. Hoặc, bạn có thể thỏa hiệp bằng cách xếp chồng với các ràng buộc về trọng lượng tối đa / phút được đặt trên mỗi mô hình lớp đầu tiên.