Độ chính xác = 1- tỷ lệ lỗi kiểm tra


14

Xin lỗi nếu đây là một câu hỏi rất rõ ràng, nhưng tôi đã đọc nhiều bài viết khác nhau và dường như không thể tìm thấy một xác nhận tốt. Trong trường hợp phân loại, độ chính xác của phân loại = 1- tỷ lệ lỗi kiểm tra ? Tôi nhận được độ chính xác đó là , nhưng câu hỏi của tôi là độ chính xác và tỷ lệ lỗi kiểm tra có liên quan như thế nào. TP+TNP+N

Câu trả lời:


5

Về nguyên tắc có, độ chính xác là một phần của các trường hợp được dự đoán đúng, do đó, 1 phần của các trường hợp được phân loại sai, đó là lỗi (tỷ lệ). Tuy nhiên, cả hai thuật ngữ đôi khi có thể được sử dụng theo cách mơ hồ hơn và bao gồm những điều khác nhau như lỗi / độ chính xác của lớp hoặc thậm chí điểm F hoặc AUROC - tốt nhất là luôn luôn tìm / bao gồm một sự làm rõ thích hợp trong bài báo hoặc báo cáo.

Cũng lưu ý rằng tỷ lệ lỗi kiểm tra ngụ ý lỗi trên tập kiểm tra, do đó có khả năng là độ chính xác của tập kiểm tra 1 và có thể có các độ chính xác khác bay xung quanh.


Vâng, tôi nghĩ rằng đó là vấn đề tôi gặp phải là các thuật ngữ được sử dụng một cách mơ hồ, và bạn nói rõ rằng nó phải được báo cáo trong bối cảnh phân tích của bạn. Cảm ơn đã làm rõ!
micro_gnomics

2

@mbq đã trả lời:

"1-phần nhỏ của các trường hợp phân loại sai, đó là lỗi (tỷ lệ)"

Tuy nhiên, có vẻ sai khi phân loại sai và lỗi là điều tương tự. Xem bên dưới (từ http://www.dataschool.io/simple-guide-to-confusion-matrix-terminology/ ):

Độ chính xác: Nhìn chung, mức độ thường xuyên của phân loại chính xác? (TP + TN) / tổng = (100 + 50) / 165 = 0,91

Tỷ lệ phân loại sai: Nhìn chung, mức độ thường xuyên là sai? (FP + FN) / tổng = (10 + 5) / 165 = 0,09 tương đương với 1 trừ Độ chính xác

còn được gọi là "Tỷ lệ lỗi"

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.