Sự khác biệt giữa học tập đa dạng và giảm kích thước phi tuyến tính là gì?


9

Sự khác biệt giữa học tập đa dạnggiảm kích thước phi tuyến tính là gì?


Tôi đã thấy hai thuật ngữ này được sử dụng thay thế cho nhau. Ví dụ:

http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html :

Manifold Learning (thường được gọi là giảm kích thước phi tuyến tính) theo đuổi mục tiêu nhúng dữ liệu ban đầu nằm trong không gian chiều cao trong không gian chiều thấp hơn, trong khi vẫn bảo tồn các thuộc tính đặc trưng.

http://www.stat.washington.edu/cifts/stat539/spring14/Resource/tutorial_nonlin-dim-red.pdf :

Trong hướng dẫn này, "học tập đa dạng" và "giảm chiều" được sử dụng thay thế cho nhau.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3337666/ :

Các phương pháp giảm kích thước là một lớp các thuật toán sử dụng các đa tạp được xác định theo toán học để lấy mẫu thống kê các lớp đa chiều để tạo ra một quy tắc phân biệt đối xử về độ chính xác thống kê được đảm bảo.

Tuy nhiên, http://scikit-learn.org/urdy/modules/manifold.html mang nhiều sắc thái hơn:

Học tập đa dạng là một cách tiếp cận để giảm kích thước phi tuyến tính.

Một khác biệt đầu tiên tôi có thể thấy là một đa tạp có thể tuyến tính, do đó ta nên so sánh phi tuyến tính học tập đa dạng và giảm chiều phi tuyến tính.

Câu trả lời:


4

Giảm kích thước phi tuyến tính xảy ra khi phương pháp được sử dụng để giảm giả định rằng đa tạp mà các biến tiềm ẩn đang nằm là ... phi tuyến tính.

Vì vậy, đối với các phương thức tuyến tính đa tạp là một mặt phẳng n chiều, tức là bề mặt affine, đối với các phương pháp phi tuyến tính thì không.

Thuật ngữ "Manifold learning" thường có nghĩa là các phương pháp hình học / tôpô học đa tạp phi tuyến tính.

Vì vậy, chúng ta có thể nghĩ về việc học đa dạng như một tập hợp con của các phương pháp giảm kích thước phi tuyến tính.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.