Câu hỏi được gắn thẻ «backpropagation»

Backpropagation, viết tắt của "lan truyền lỗi lạc hậu", là một phương pháp phổ biến để đào tạo mạng lưới thần kinh nhân tạo được sử dụng cùng với một phương pháp tối ưu hóa như giảm độ dốc.



1
Softmax_cross_entropy_with_logits khác với softmax_cross_entropy_with_logits_v2 như thế nào?
Cụ thể, tôi cho rằng tôi tự hỏi về tuyên bố này: Các phiên bản chính trong tương lai của TensorFlow sẽ cho phép độ dốc chảy vào đầu vào nhãn trên backprop theo mặc định. Mà được hiển thị khi tôi sử dụng tf.nn.softmax_cross_entropy_with_logits. Trong cùng một thông điệp, …

6
Backpropagation với Softmax / Cross Entropy
Tôi đang cố gắng hiểu làm thế nào backpropagation hoạt động cho lớp đầu ra softmax / cross-entropy. Hàm lỗi entropy chéo là E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j với và là mục tiêu và đầu ra tại nơron , tương ứng. Tổng là trên mỗi nơ ron trong lớp đầu ra. …







2
Trong các mạng lưới thần kinh, tại sao sử dụng các phương pháp gradient hơn là các siêu dữ liệu khác?
Trong đào tạo mạng lưới thần kinh sâu và nông, tại sao các phương pháp gradient (ví dụ: độ dốc gốc, Nesterov, Newton-Raphson) thường được sử dụng, trái ngược với các siêu dữ liệu khác? Theo siêu dữ liệu, ý tôi là các phương pháp như ủ mô phỏng, tối …


2
Thuật toán backpropagation
Tôi đã có một sự nhầm lẫn nhỏ về thuật toán backpropagation được sử dụng trong perceptionron đa lớp (MLP). Lỗi được điều chỉnh bởi hàm chi phí. Trong backpropagation, chúng tôi đang cố gắng điều chỉnh trọng lượng của các lớp ẩn. Lỗi đầu ra tôi có thể hiểu, …



Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.