Một lựa chọn thú vị sẽ là khám phá giảm kích thước dựa trên thần kinh. Loại mạng được sử dụng phổ biến nhất để giảm kích thước, bộ mã hóa tự động, có thể được đào tạo với chi phí , trong đó đại diện cho các lần lặp đào tạo (là một siêu tham số độc lập với dữ liệu đào tạo) . Do đó, độ phức tạp đào tạo đơn giản hóa thành .i O ( n )O(i⋅n)iO(n)
Bạn có thể bắt đầu bằng cách xem qua công việc hội thảo năm 2006 của Hinton và Salakhutdinov [1]. Kể từ đó, mọi thứ đã phát triển rất nhiều. Bây giờ hầu hết sự chú ý đều đạt được bởi Bộ biến đổi tự động biến đổi [2], nhưng ý tưởng cơ bản (một mạng tái tạo lại đầu vào ở lớp đầu ra của nó với lớp nút cổ chai ở giữa) vẫn giữ nguyên. Lưu ý rằng, trái ngược với PCA và RP, bộ tự động thực hiện giảm kích thước phi tuyến. Ngoài ra, trái ngược với t-SNE, bộ tự động có thể biến đổi các mẫu không nhìn thấy mà không cần phải đào tạo lại toàn bộ mô hình.
Về mặt thực tế, tôi khuyên bạn nên xem bài đăng này , trong đó cung cấp chi tiết về cách triển khai các loại trình tự động khác nhau với thư viện tuyệt vời Keras.
[1] Hinton, GE, & Salakhutdinov, RR (2006). Giảm tính chiều của dữ liệu với các mạng thần kinh. khoa học, 313 (5786), 504-507.
[2] Kingma, DP, & Welling, M. (2013). Vịnh biến đổi tự động mã hóa. bản in sẵn arXiv arXiv: 1312.6114.