Trong CNN, chúng tôi sẽ tìm hiểu các bộ lọc để tạo bản đồ tính năng trong lớp chập.
Trong Autoencoder, đơn vị ẩn duy nhất của mỗi lớp có thể được coi là bộ lọc.
Sự khác biệt giữa các bộ lọc đã học trong hai mạng này là gì?
Trong CNN, chúng tôi sẽ tìm hiểu các bộ lọc để tạo bản đồ tính năng trong lớp chập.
Trong Autoencoder, đơn vị ẩn duy nhất của mỗi lớp có thể được coi là bộ lọc.
Sự khác biệt giữa các bộ lọc đã học trong hai mạng này là gì?
Câu trả lời:
Trong trường hợp bộ lọc CNN được áp dụng cho các mảng nhỏ của hình ảnh tại mỗi vị trí có thể (điều này cũng khiến chúng dịch bất biến).
Các lớp ẩn của Autoencoder lấy toàn bộ hình ảnh (đầu ra của lớp trước) làm đầu vào của chúng, điều này không giống như một ý tưởng tốt cho hình ảnh: thường chỉ có các tính năng cục bộ không gian tương quan, trong khi các lớp xa hơn thì ít tương quan hơn. Ngoài ra, các tế bào thần kinh ẩn không phải là bất biến dịch.
Do đó, CNN giống như các ANN thông thường với một loại chính quy đặc biệt, giúp loại bỏ hầu hết các trọng số để sử dụng địa phương.