Vâng, cả hai đều đo lường tính chính xác của y và y_hat và vâng, chúng thường tương quan với nhau. Đôi khi chức năng mất có thể không chính xác nhưng bạn vẫn quan tâm đến việc đo độ chính xác mặc dù bạn không tối ưu hóa trực tiếp. Ví dụ về TensorFlow MNIST của Google giảm thiểu / tối ưu hóa mất entropy chéo nhưng hiển thị độ chính xác cho người dùng khi báo cáo kết quả và điều này hoàn toàn tốt.
Đôi khi bạn không muốn tối ưu hóa độ chính xác trực tiếp. Ví dụ: nếu bạn có sự mất cân bằng lớp nghiêm trọng, mô hình của bạn sẽ tối đa hóa độ chính xác bằng cách luôn luôn chọn lớp phổ biến nhất, nhưng đây sẽ không phải là một mô hình hữu ích. Trong trường hợp này, entropy / log-loss sẽ là một hàm mất tốt hơn để tối ưu hóa.