Tôi đã cố gắng sử dụng các tính năng quan trọng từ Rừng ngẫu nhiên để thực hiện một số lựa chọn tính năng theo kinh nghiệm cho vấn đề hồi quy trong đó tất cả các tính năng là phân loại và rất nhiều trong số chúng có nhiều cấp độ (theo thứ tự 100-1000). Cho rằng mã hóa một nóng tạo ra một biến giả cho mỗi cấp độ, các mức độ quan trọng của tính năng dành cho từng cấp độ chứ không phải cho từng tính năng (cột). Một cách tốt để tổng hợp các tính năng quan trọng này là gì?
Tôi đã nghĩ về việc tổng hợp hoặc nhận được tầm quan trọng trung bình cho tất cả các cấp độ của một tính năng (có thể trước đây sẽ thiên về các tính năng đó với nhiều cấp độ hơn). Có bất kỳ tài liệu tham khảo về vấn đề này?
Người ta có thể làm gì khác để giảm số lượng tính năng? Tôi biết về nhóm Lasso, không thể tìm thấy bất cứ thứ gì dễ sử dụng cho scikit-learn.