Ảnh hưởng của việc KHÔNG thay đổi trọng lượng bộ lọc của CNN trong quá trình truyền ngược là gì? Tôi chỉ thay đổi trọng lượng lớp được kết nối đầy đủ trong khi đào tạo về bộ dữ liệu MNIST và vẫn đạt được độ chính xác gần như 99%.
Ảnh hưởng của việc KHÔNG thay đổi trọng lượng bộ lọc của CNN trong quá trình truyền ngược là gì? Tôi chỉ thay đổi trọng lượng lớp được kết nối đầy đủ trong khi đào tạo về bộ dữ liệu MNIST và vẫn đạt được độ chính xác gần như 99%.
Câu trả lời:
Bằng cách không thay đổi trọng số của các lớp chập của CNN, về cơ bản, bạn đang cung cấp cho các tính năng ngẫu nhiên của lớp phân loại (lớp được kết nối đầy đủ) (nghĩa là không phải là các tính năng tối ưu cho nhiệm vụ phân loại trong tay).
MNIST là một nhiệm vụ phân loại hình ảnh đủ dễ dàng để bạn có thể cung cấp khá nhiều pixel đầu vào cho một bộ phân loại mà không cần bất kỳ trích xuất tính năng nào và nó vẫn sẽ ghi điểm trong những năm 90 cao. Bên cạnh đó, có lẽ các lớp gộp giúp một chút ...
Hãy thử đào tạo một MLP (không có lớp đối lưu / nhóm) trên hình ảnh đầu vào và xem thứ hạng của nó. Dưới đây là một ví dụ trong đó MLP (1 lớp ẩn & 1 lớp đầu ra) đạt 98 +% mà không cần bất kỳ trích xuất tiền xử lý / tính năng nào.