Cập nhật trọng lượng của các bộ lọc trong CNN


12

Tôi hiện đang cố gắng tìm hiểu kiến ​​trúc của một CNN. Tôi hiểu tích chập, lớp ReLU, lớp gộp và lớp được kết nối đầy đủ. Tuy nhiên, tôi vẫn còn bối rối về trọng lượng.

Trong một mạng lưới thần kinh bình thường, mỗi nơ-ron có trọng lượng riêng. Trong lớp được kết nối đầy đủ, mỗi nơ-ron cũng sẽ có trọng lượng riêng. Nhưng điều tôi không biết là nếu mỗi bộ lọc có trọng lượng riêng. Tôi có phải cập nhật các trọng số trong lớp được kết nối đầy đủ trong quá trình truyền ngược không? Hay tất cả các bộ lọc đều có trọng lượng riêng mà tôi cần cập nhật?

Câu trả lời:


12

Trong một mạng lưới thần kinh bình thường, mỗi nơ-ron có trọng lượng riêng.

Điều này LAF không đúng. Mỗi kết nối giữa các tế bào thần kinh có trọng lượng riêng của nó. Trong một mạng được kết nối đầy đủ, mỗi nơ-ron sẽ được liên kết với nhiều trọng lượng khác nhau. Nếu có các n0đầu vào (tức là n0các nơ-ron ở lớp trước) đến một lớp có n1các nơ-ron trong một mạng được kết nối đầy đủ, lớp đó sẽ có n0*n1trọng số, không tính bất kỳ thuật ngữ sai lệch nào.

Bạn sẽ có thể thấy rõ điều này trong sơ đồ này của một mạng được kết nối đầy đủ từ CS231n . Mỗi cạnh bạn nhìn thấy đại diện cho một trọng lượng có thể huấn luyện khác nhau:

nhập mô tả hình ảnh ở đây

Các lớp kết hợp khác nhau ở chỗ chúng có số lượng trọng lượng cố định được chi phối bởi sự lựa chọn kích thước bộ lọc và số lượng bộ lọc, nhưng độc lập với kích thước đầu vào.

Mỗi bộ lọc có một trọng lượng riêng ở mỗi vị trí hình dạng của nó. Vì vậy, nếu bạn sử dụng hai bộ lọc 3x3x3 thì bạn sẽ có 54 trọng số, một lần nữa không tính độ lệch. Điều này được minh họa trong sơ đồ thứ hai từ CS231n :

nhập mô tả hình ảnh ở đây

Trọng lượng bộ lọc hoàn toàn phải được cập nhật trong backpropagation, vì đây là cách chúng học cách nhận biết các tính năng của đầu vào. Nếu bạn đọc phần có tiêu đề "Trực quan hóa mạng nơ-ron" ở đây, bạn sẽ thấy các lớp của CNN tìm hiểu thêm các tính năng phức tạp hơn của hình ảnh đầu vào khi bạn vào sâu hơn trong mạng. Tất cả đều được học bằng cách điều chỉnh trọng lượng bộ lọc thông qua việc truyền ngược.


mmm số lượng trọng lượng trong mỗi lớp cũng phụ thuộc vào số bước tiến của các bộ lọc ... đúng không?
Arnav Das

2

Trong quá trình nhân giống trở lại, cả các lớp dày đặc và các lớp chập được cập nhật nhưng các lớp gộp tối đa không có bất kỳ trọng số nào được cập nhật. Các lớp dày đặc được cập nhật để giúp mạng phân loại. Các lớp kết hợp được cập nhật để cho phép mạng tự tìm hiểu các tính năng. Bởi vì bạn chưa hỏi trong câu hỏi, tôi chỉ cần thêm một liên kết cho bạn nếu bạn muốn biết thêm. Có một lời giải thích rất tốt cho việc truyền bá lại ở đây có thể hữu ích cho bạn.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.