Giống như bất kỳ số liệu nào, một số liệu tốt là một số liệu tốt hơn mà "người câm", tình cờ đoán, nếu bạn sẽ phải đoán mà không có thông tin về các quan sát. Đây được gọi là mô hình chỉ đánh chặn trong thống kê.
Sự "ngớ ngẩn" này phụ thuộc vào 2 yếu tố:
- số lượng lớp học
- sự cân bằng của các lớp: mức độ phổ biến của chúng trong tập dữ liệu được quan sát
Trong trường hợp của số liệu LogLoss, một số liệu "nổi tiếng" thông thường là nói rằng 0,693 là giá trị không mang tính thông tin. Con số này có được bằng cách dự đoán p = 0.5
cho bất kỳ lớp nào của một vấn đề nhị phân. Điều này chỉ hợp lệ cho các vấn đề nhị phân cân bằng . Bởi vì khi tỷ lệ lưu hành của một lớp là 10%, thì bạn sẽ luôn dự đoán p =0.1
cho lớp đó. Đây sẽ là cơ sở dự đoán ngu ngốc của bạn, bởi vì dự đoán 0.5
sẽ là ngu ngốc .
I. Tác động của số lượng các lớp N
trên dumb-logloss:
Trong trường hợp cân bằng (mọi lớp đều có cùng mức độ phổ biến), khi bạn dự đoán p = prevalence = 1 / N
cho mọi quan sát, phương trình trở nên đơn giản:
Logloss = -log(1 / N)
log
được Ln
, logarit neperian cho những người sử dụng quy ước đó.
Trong trường hợp nhị phân , N = 2
:Logloss = - log(1/2) = 0.693
Vì vậy, Loglosses câm như sau:
II. Tác động của sự phổ biến của các lớp học đối với người ngu ngốc - Logloss:
a. Trường hợp phân loại nhị phân
Trong trường hợp này, chúng tôi dự đoán luôn p(i) = prevalence(i)
và chúng tôi có được bảng sau:
Vì vậy, khi các lớp rất mất cân bằng (tỷ lệ lưu hành <2%), logloss 0,1 thực sự có thể rất tệ! Chẳng hạn như độ chính xác 98% sẽ là xấu trong trường hợp đó. Vì vậy, có lẽ Logloss sẽ không phải là số liệu tốt nhất để sử dụng
b. Trường hợp ba lớp
"Ngốc" -logloss tùy thuộc vào mức độ phổ biến - trường hợp ba lớp:
Chúng ta có thể thấy ở đây các giá trị của các trường hợp nhị phân và ba lớp cân bằng (0,69 và 1,1).
PHẦN KẾT LUẬN
Một logloss 0,69 có thể là tốt trong một vấn đề đa kính và rất xấu trong trường hợp sai lệch nhị phân.
Tùy thuộc vào trường hợp của bạn, bạn nên tự tính toán cơ sở của vấn đề, để kiểm tra ý nghĩa dự đoán của bạn.
Trong các trường hợp sai lệch, tôi hiểu rằng logloss có cùng một vấn đề như độ chính xác và các hàm mất mát khác: nó chỉ cung cấp một phép đo toàn cầu về hiệu suất của bạn. Vì vậy, bạn sẽ bổ sung tốt hơn cho sự hiểu biết của mình bằng các số liệu tập trung vào các lớp thiểu số (nhớ lại và độ chính xác), hoặc có thể không sử dụng logloss chút nào.