Cân bằng độ chính xác so với điểm F-1


14

Tôi đã tự hỏi nếu có ai có thể giải thích sự khác biệt giữa độ chính xác cân bằng

b_acc = (sensitivity + specificity)/2

và điểm số F1 là:

f1 = 2*precision*recall/(precision + recall) 

Câu trả lời:


18

Về mặt toán học, b_acc là giá trị trung bình số học của việc thu hồi_P và gọi lại_N và F1 là giá trị trung bình hài hòa của thu hồi_P và độ chính xác.

Cả F1 và b_acc đều là số liệu để đánh giá phân loại, rằng (ở một mức độ nào đó) xử lý sự mất cân bằng của lớp. Tùy thuộc vào loại nào trong hai loại (N hoặc P) vượt trội so với loại kia, mỗi số liệu đều vượt trội so với loại kia.

1) Nếu N >> P, thì F1 tốt hơn.

2) Nếu P >> N, b_acc tốt hơn.

Rõ ràng, nếu bạn có thể chuyển đổi nhãn, cả hai số liệu có thể được sử dụng trong bất kỳ trường hợp mất cân bằng nào ở trên. Nếu không, tùy thuộc vào sự mất cân bằng trong dữ liệu đào tạo, bạn có thể chọn số liệu phù hợp.


1
Xin cảm ơn ông, Bạn có tham khảo thông tin liên quan đến việc chọn Fscore so với độ chính xác cân bằng về số lượng các lớp tích cực / tiêu cực không?
gin

Tôi muốn yêu cầu thứ hai @ gin để biết thêm thông tin về cách chọn giữa hai. Tôi có một số dữ liệu trong đó N là khoảng 8%. Bằng cách trả lời ở trên, có vẻ như tôi nên sử dụng Độ chính xác cân bằng. Tôi đã tìm kiếm các tài liệu tham khảo khác về lựa chọn này (P> N -> b_acc) nhưng chưa thấy gì.
anguyen1210

Điều này không có ý nghĩa gì với tôi. Độ chính xác cân bằng là bất biến dưới chuyển đổi nhãn. Làm thế nào bạn có thể "làm cho nó tốt hơn" bằng cách chuyển đổi nhãn nếu nó sẽ không thay đổi?
TC Proctor
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.