Các lỗi phân loại trong thực tế đôi khi có thể dễ dàng. Nó có thể được tối ưu hóa một cách hiệu quả - mặc dù không chính xác - sử dụng phương pháp Nelder-Mead, như trong bài viết này:
https://www.computer.org/csdl/trans/tp/1994/04/i0420-abs.html
"Giảm kích thước là quá trình biến đổi các vectơ đa chiều thành không gian chiều thấp. Trong nhận dạng mẫu, người ta thường mong muốn nhiệm vụ này được thực hiện mà không mất thông tin phân loại đáng kể. Tuy nhiên, lỗi Bayes là một tiêu chí lý tưởng cho mục đích này; Do đó, nó được biết là rất khó điều trị toán học. Do đó, các tiêu chí dưới mức tối ưu đã được sử dụng trong thực tế. Chúng tôi đề xuất một tiêu chí thay thế, dựa trên ước tính của lỗi Bayes, hy vọng sẽ gần với tiêu chí tối ưu hơn so với tiêu chí hiện đang sử dụng Một thuật toán để giảm kích thước tuyến tính, dựa trên tiêu chí này, được hình thành và thực hiện. Các thí nghiệm chứng minh hiệu suất vượt trội của nó so với các thuật toán thông thường. "
Lỗi Bayes được đề cập ở đây về cơ bản là mất 0-1.
Công việc này được thực hiện trong bối cảnh giảm kích thước tuyến tính. Tôi không biết làm thế nào hiệu quả để đào tạo mạng lưới học tập sâu. Nhưng vấn đề là, và câu trả lời cho câu hỏi: thua 0-1 không phải là phổ biến. Nó có thể được tối ưu hóa tương đối tốt cho ít nhất một số loại mô hình.