Xây dựng một cách nhân tạo một bộ huấn luyện cân bằng là điều gây tranh cãi, thực sự gây tranh cãi. Nếu bạn làm điều đó, bạn nên xác minh bằng thực nghiệm rằng nó thực sự hoạt động tốt hơn so với việc tập luyện không cân bằng. Cân bằng nhân tạo bộ thử nghiệm gần như không bao giờ là một ý tưởng tốt. Bộ kiểm tra phải đại diện cho các điểm dữ liệu mới khi chúng đi vào mà không có nhãn. Bạn mong đợi chúng không cân bằng, vì vậy bạn cần biết liệu mô hình của bạn có thể xử lý một bộ kiểm tra không cân bằng hay không. (Nếu bạn không mong đợi các bản ghi mới không cân bằng, tại sao tất cả các bản ghi hiện tại của bạn không cân bằng?)
Về số liệu hiệu suất của bạn, bạn sẽ luôn nhận được những gì bạn yêu cầu. Nếu độ chính xác không phải là thứ bạn cần nhất trong một tập hợp không cân bằng, bởi vì không chỉ các lớp mà cả chi phí phân loại sai cũng không cân bằng, vậy thì đừng sử dụng nó. Nếu bạn đã sử dụng độ chính xác làm số liệu và thực hiện tất cả các lựa chọn mô hình và điều chỉnh siêu tham số của mình bằng cách luôn lấy độ chính xác tốt nhất, bạn sẽ tối ưu hóa cho độ chính xác.
Tôi lấy lớp thiểu số làm lớp tích cực, đây là cách đặt tên thông thường. Do đó, độ chính xác và thu hồi như được thảo luận dưới đây là độ chính xác và thu hồi của nhóm thiểu số.
- Nếu điều quan trọng duy nhất là xác định tất cả các hồ sơ lớp thiểu số, bạn có thể thu hồi. Do đó, bạn đang chấp nhận tích cực sai.
- Tối ưu hóa chính xác chỉ là một ý tưởng rất kỳ lạ. Bạn sẽ nói với trình phân loại của bạn rằng đó không phải là vấn đề để phát hiện ra nhóm thiểu số. Cách dễ nhất để có độ chính xác cao là quá thận trọng khi tuyên bố tầng lớp thiểu số.
- Nếu bạn cần độ chính xác và thu hồi, bạn có thể lấy F-đo. Đó là ý nghĩa hài hòa giữa độ chính xác và thu hồi và do đó xử phạt các kết quả trong đó cả hai số liệu phân kỳ.
- Nếu bạn biết chi phí phân loại sai cụ thể theo cả hai hướng (và lợi nhuận của phân loại chính xác nếu chúng khác nhau cho mỗi lớp), bạn có thể đặt tất cả số đó vào hàm mất và tối ưu hóa nó.