Tôi bắt đầu học về các mạng nơ-ron với hướng dẫn chấm com nơ-ron thần kinh. Cụ thể trong chương 3 có một phần về hàm entropy chéo và định nghĩa mất entropy chéo là:
Tuy nhiên, đọc phần giới thiệu Tensorflow , mất entropy chéo được định nghĩa là:
(khi sử dụng cùng các ký hiệu như trên)
Sau đó tìm kiếm xung quanh để tìm những gì đang diễn ra, tôi tìm thấy một tập hợp các ghi chú khác: ( https://cs231n.github.io/linear- classify / # softwaremax- classifier ) sử dụng một định nghĩa hoàn toàn khác về mất entropy chéo, mặc dù điều này thời gian cho một bộ phân loại softmax chứ không phải cho một mạng lưới thần kinh.
Ai đó có thể giải thích cho tôi những gì đang xảy ra ở đây? Tại sao có sự khác biệt btw. những gì mọi người định nghĩa mất entropy chéo là? Có phải chỉ có một số nguyên tắc bao trùm?