Tôi hiện đang làm việc trên một phần mềm nhận dạng khuôn mặt sử dụng mạng thần kinh tích chập để nhận diện khuôn mặt. Dựa trên các bài đọc của tôi, tôi đã tập hợp rằng một mạng lưới thần kinh tích chập đã chia sẻ các trọng số, để tiết kiệm thời gian trong quá trình đào tạo. Nhưng, làm thế nào để điều chỉnh backpropagation để nó có thể được sử dụng trong mạng nơ ron tích chập. Trong backpropagation, người ta sử dụng một công thức tương tự như thế này để huấn luyện các trọng số.
New Weight = Old Weight + LEARNING_RATE * 1 * Output Of InputNeuron * Delta
Tuy nhiên, vì trong các mạng nơ ron tích chập, các trọng số được chia sẻ, mỗi trọng lượng được sử dụng với nhiều nơ-ron, vậy làm thế nào để tôi quyết định Output of InputNeuron
sử dụng cái nào?
Nói cách khác, vì các trọng số được chia sẻ, làm thế nào để tôi quyết định thay đổi trọng số bao nhiêu?