Tôi có một bộ dữ liệu chứa tối đa 150 ví dụ (được chia thành đào tạo & kiểm tra), với nhiều tính năng (cao hơn 1000). Tôi cần so sánh các phân loại và các phương pháp lựa chọn tính năng hoạt động tốt trên dữ liệu. Vì vậy, tôi đang sử dụng ba phương pháp phân loại (J48, NB, SVM) và 2 phương pháp lựa chọn tính năng (CFS, WrapperSubset) với các phương pháp tìm kiếm khác nhau (Greedy, BestFirst).
Trong khi so sánh, tôi đang xem xét độ chính xác đào tạo (gấp 5 lần) và kiểm tra độ chính xác.
Đây là một trong những kết quả của J48 và CFS-BestFirst:
{"precisionTraining": 95.83, "precisionTest": 98,21}
Nhiều kết quả như thế này và trên SVM có nhiều kết quả chỉ ra rằng độ chính xác của bài kiểm tra cao hơn nhiều so với đào tạo (đào tạo: 60%, kiểm tra: 98%)
Làm thế nào tôi có thể giải thích một cách có ý nghĩa các loại kết quả? Nếu nó thấp hơn, tôi sẽ nói nó quá mức. Có điều gì đó để nói về sự thiên vị và phương sai trong trường hợp này bằng cách xem tất cả các kết quả? Tôi có thể làm gì để phân loại này có ý nghĩa, chẳng hạn như chọn lại tập huấn luyện và kiểm tra hoặc chỉ sử dụng xác thực chéo trên tất cả dữ liệu?
Tôi có 73 trường hợp đào tạo & 58 bài kiểm tra. Một số câu trả lời không có thông tin này khi chúng được đăng.