Chỉ cần thêm phần làm rõ này để bất kỳ ai cuộn xuống nhiều như vậy ít nhất cũng có thể hiểu đúng, vì có rất nhiều câu trả lời sai được nêu lên.
Diansheng của câu trả lời và JakeJ của câu trả lời nhận được nó ngay.
Một câu trả lời mới được đăng bởi Shital Shah là một câu trả lời thậm chí tốt hơn và đầy đủ hơn.
Vâng, logit
là một hàm toán học trong thống kê, nhưng logit
được sử dụng trong bối cảnh của các mạng thần kinh là khác nhau. Thống kê logit
thậm chí không có ý nghĩa gì ở đây.
Tôi không thể tìm thấy một định nghĩa chính thức ở bất cứ đâu, nhưng logit
về cơ bản có nghĩa là:
Các dự đoán thô xuất phát từ lớp cuối cùng của mạng lưới thần kinh.
1. Đây là tenxơ mà bạn áp dụng argmax
hàm để có được lớp dự đoán.
2. Đây là tenxơ mà bạn cung cấp cho softmax
hàm để có xác suất cho các lớp dự đoán.
Ngoài ra, từ một hướng dẫn trên trang web tenorflow chính thức:
Lớp đăng nhập
Lớp cuối cùng trong mạng thần kinh của chúng ta là lớp logits, sẽ trả về các giá trị thô cho dự đoán của chúng ta. Chúng tôi tạo ra một lớp dày đặc với 10 nơ-ron (một cho mỗi lớp mục tiêu 0 Hay9), với kích hoạt tuyến tính (mặc định):
logits = tf.layers.dense(inputs=dropout, units=10)
Nếu bạn vẫn còn bối rối, tình hình là như thế này:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
ở đâu, predicted_class_index_by_raw
và predicted_class_index_by_prob
sẽ bằng nhau.
Một tên khác raw_predictions
trong mã trên làlogit
.
Về lý do tại sao logit
... tôi không có ý tưởng. Lấy làm tiếc.
[Chỉnh sửa: Xem câu trả lời này cho các động lực lịch sử đằng sau thuật ngữ.]
Câu đố
Mặc dù, nếu bạn muốn, bạn có thể áp dụng thống kê logit
để probabilities
đi ra khỏi softmax
chức năng.
Nếu xác suất của một lớp nhất định là p
,
thì tỷ lệ cược log của lớp đó là L = logit(p)
.
Ngoài ra, xác suất của lớp đó có thể được phục hồi p = sigmoid(L)
bằng cách sử dụng sigmoid
hàm.
Không phải là rất hữu ích để tính toán tỷ lệ cược log mặc dù.