Câu hỏi được gắn thẻ «backpropagation»

Sử dụng cho các câu hỏi về Backpropagation, thường được sử dụng trong đào tạo Mạng thần kinh kết hợp với một phương pháp tối ưu hóa chẳng hạn như gradient descent.










3

2
Sinh viên tổng hợp - lợi ích thiết thực là gì?
Tôi có thể thấy hai động cơ để sử dụng Lớp tổng hợp trong RNN: Để tăng tốc độ đào tạo, bằng cách sửa ngay lập tức từng lớp với độ dốc dự đoán Để có thể học các chuỗi dài hơn Tôi thấy vấn đề với cả hai. Xin …

1
Cách áp dụng độ dốc của softmax trong backprop
Gần đây tôi đã làm một bài tập về nhà, nơi tôi phải học một mô hình cho phân loại 10 chữ số của MNIST. CTNH có một số mã giàn giáo và tôi phải làm việc trong bối cảnh của mã này. Bài tập về nhà của tôi hoạt …


1
Xuất phát các phương trình truyền ngược lại
Hình ảnh hiển thị một lớp điển hình ở đâu đó trong mạng chuyển tiếp nguồn cấp dữ liệu: a(k)iai(k)a_i^{(k)} là giá trị kích hoạt của nơ ron trong lớp .ithithi^{th}kthkthk^{th} W(k)ijWij(k)W_{ij}^{(k)} là trọng lượng kết nối neuron trong lớp đến neuron trong lớp.ithithi^{th}kthkthk^{th}jthjthj^{th}(k+1)th(k+1)th(k+1)^{th} z(k+1)jzj(k+1)z_j^{(k+1)} là giá trị hàm kích …

1
Backpropagation: Trong các phương pháp bậc hai, đạo hàm ReLU có phải là 0 không? và tác dụng của nó đối với việc đào tạo?
ReLU là một chức năng kích hoạt được định nghĩa là h=max(0,a)h=max(0,a)h = \max(0, a)trong đó .a=Wx+ba=Wx+ba = Wx + b Thông thường, chúng tôi đào tạo mạng lưới thần kinh với các phương pháp bậc nhất như SGD, Adam, RMSprop, Adadelta hoặc Adagrad. Backpropagation trong các phương pháp bậc …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.