Gần đây tôi đã xem tf.nn.sparse_softmax_cross_entropy_with_logits và tôi không thể tìm ra sự khác biệt là gì so với tf.nn.softmax_cross_entropy_with_logits .
Sự khác biệt duy nhất mà các vectơ đào tạo y
phải được mã hóa một nóng khi sử dụng sparse_softmax_cross_entropy_with_logits
?
Đọc API, tôi không thể tìm thấy bất kỳ sự khác biệt nào khác so với softmax_cross_entropy_with_logits
. Nhưng tại sao chúng ta cần chức năng bổ sung sau đó?
Sẽ không softmax_cross_entropy_with_logits
tạo ra kết quả giống như sparse_softmax_cross_entropy_with_logits
, nếu nó được cung cấp với dữ liệu / vectơ đào tạo được mã hóa một nóng?