Tôi xử lý vấn đề phát hiện gian lận (giống như điểm tín dụng). Như vậy, có một mối quan hệ rất mất cân bằng giữa các quan sát gian lận và không gian lận.
http://blog.revolutionanalytics.com/2016/03/com_group_eval_metrics_r.html cung cấp một cái nhìn tổng quan tuyệt vời về các số liệu phân loại khác nhau. Precision and Recall
hoặc kappa
cả hai dường như là một lựa chọn tốt:
Một cách để biện minh cho kết quả của các phân loại như vậy là bằng cách so sánh chúng với các phân loại cơ bản và cho thấy rằng chúng thực sự tốt hơn các dự đoán cơ hội ngẫu nhiên.
Theo tôi hiểu, kappa
có thể là sự lựa chọn tốt hơn một chút ở đây, vì cơ hội ngẫu nhiên được tính đến. Từ Cohen's kappa bằng tiếng Anh đơn giản, tôi hiểu rằng kappa
liên quan đến khái niệm thu thập thông tin:
[...] Độ chính xác được quan sát là 80% ít ấn tượng hơn với Độ chính xác dự kiến là 75% so với Độ chính xác dự kiến là 50% [...]
Do đó, câu hỏi của tôi sẽ là:
- Là chính xác để giả định
kappa
là một số liệu phân loại phù hợp hơn cho vấn đề này? - Có phải chỉ đơn giản là sử dụng
kappa
ngăn chặn các tác động tiêu cực của sự mất cân bằng trên thuật toán phân loại? Có phải học lại (xuống / lên) hoặc lấy mẫu dựa trên chi phí (xem http://www.icmc.usp.br/~mcmonard/public/laptec2002.pdf ) vẫn được yêu cầu không?