Cụ thể, tôi cho rằng tôi tự hỏi về tuyên bố này:
Các phiên bản chính trong tương lai của TensorFlow sẽ cho phép độ dốc chảy vào đầu vào nhãn trên backprop theo mặc định.
Mà được hiển thị khi tôi sử dụng tf.nn.softmax_cross_entropy_with_logits
. Trong cùng một thông điệp, nó thúc giục tôi phải xem xét tf.nn.softmax_cross_entropy_with_logits_v2
. Tôi đã xem qua các tài liệu nhưng nó chỉ nói rằng tf.nn.softmax_cross_entropy_with_logits_v2
:
Backpropagation sẽ xảy ra vào cả bản ghi và nhãn. Để không cho phép truyền ngược vào nhãn, chuyển các tenxơ nhãn qua stop_gradents trước khi đưa nó vào hàm này.
trái ngược với, tf.nn.softmax_cross_entropy_with_logits
's:
Backpropagation sẽ chỉ xảy ra vào các bản ghi.
Là người rất mới đối với chủ đề (Tôi đang cố gắng tìm hiểu một số hướng dẫn cơ bản) những tuyên bố đó không rõ ràng lắm. Tôi có một sự hiểu biết nông cạn về backpropagation nhưng tuyên bố trước đó thực sự có ý nghĩa gì? Làm thế nào là backpropagation và các nhãn được kết nối? Và làm thế nào điều này thay đổi cách tôi làm việc tf.nn.softmax_cross_entropy_with_logits_v2
trái ngược với bản gốc?
softmax_..._with_logits_v2
sẽ hoạt động nhưsoftmax_with_logits
thế nào? (Hoặc tôi có thể sử dụng tf.stop_gradient trên biến nhãn.)