Sự khác biệt giữa PCA và autoencoder là gì?


Câu trả lời:


52

PCA bị giới hạn trong bản đồ tuyến tính, trong khi bộ mã hóa tự động có thể có bộ giải mã / giải mã phi tuyến.

Một bộ mã hóa tự động một lớp với chức năng truyền tuyến tính gần tương đương với PCA, trong đó gần như có nghĩa là được tìm thấy bởi AE và PCA sẽ không giống nhau - nhưng không gian con được kéo dài theo ý muốn của tương ứng .WWW


Tôi hiểu rồi! Vì vậy, tôi cần phải có hai lớp để chuyển đổi phi tuyến tính. Vì vậy, nhiều lớp có nghĩa là phi tuyến tính rất phức tạp?
RockTheStar

7
@RockTheStar: không phải là số lớp quan trọng, mà là chức năng kích hoạt [chức năng chuyển]. Với chức năng chuyển tuyến tính, không có số lớp sẽ dẫn đến bộ tự động mã hóa phi tuyến tính.
amip nói rằng Phục hồi lại

Vì vậy, với phép biến đổi phi tuyến tính, thậm chí chỉ có 1 lớp đơn vị ẩn. Giải pháp vẫn là phi tuyến tính?
RockTheStar

Đúng. (Ngoài ra, nó vẫn có thể là tuyến tính trong một số trường hợp, ví dụ: khi các đơn vị ẩn được kích hoạt ở các khu vực gần tuyến tính.)
bayerj

"Khi các đơn vị ẩn được kích hoạt ở các vùng gần tuyến tính", ý bạn là phần tuyến tính trong hàm sigmoid, phải không?
RockTheStar

17

Như bayerj chỉ ra PCA là phương pháp giả định các hệ thống tuyến tính trong đó như Autoencoders (AE) thì không. Nếu không có chức năng phi tuyến tính được sử dụng trong AE và số lượng tế bào thần kinh trong lớp ẩn có kích thước nhỏ hơn thì đầu vào thì PCA và AE có thể mang lại kết quả tương tự. Nếu không, AE có thể tìm thấy một không gian con khác.

Một điều cần lưu ý là lớp ẩn trong AE có thể có chiều lớn hơn so với lớp đầu vào. Trong những trường hợp như vậy, AE có thể không thực hiện giảm kích thước. Trong trường hợp này, chúng tôi cảm nhận chúng là thực hiện chuyển đổi từ không gian tính năng này sang không gian tính năng khác trong đó dữ liệu trong không gian tính năng mới loại bỏ các yếu tố biến đổi.

Liên quan đến câu hỏi của bạn về việc nhiều lớp có nghĩa là phi tuyến tính rất phức tạp trong phản ứng của bạn với bayerj. Tùy thuộc vào ý của bạn bởi "phi tuyến tính rất phức tạp", điều này có thể đúng. Tuy nhiên độ sâu thực sự là cung cấp khái quát tốt hơn. Nhiều phương pháp yêu cầu số lượng mẫu bằng nhau bằng số vùng. Tuy nhiên, nó chỉ ra rằng "một số lượng rất lớn các vùng, ví dụ, , có thể được định nghĩa bằng các ví dụ " theo Bengio et al . Đây là kết quả của sự phức tạp trong biểu diễn phát sinh từ việc kết hợp các tính năng thấp hơn từ các lớp thấp hơn trong mạng.O ( N )O(2N)O(N)


2
thx cho ans của bạn!
RockTheStar

6

Điều này phù hợp hơn như là một nhận xét nhưng vì tôi thiếu danh tiếng vì nó sẽ được đưa ra như một câu trả lời.

Tôi hơi bối rối với khái niệm gần như trong câu trả lời của bayerj: s. Đọc mạng nơ-ron và phân tích thành phần chính: Học từ các ví dụ không có Minima cục bộ nơi đưa ra bằng chứng.

'' Trong trường hợp liên kết tự động ... và do đó, bản đồ tối ưu cục bộ và toàn cầu duy nhất W là hình chiếu trực giao lên không gian được kéo dài bởi các hàm riêng đầu tiên của '' Σ X XpΣXX

Đây có phải là không gian chính xác như được mở rộng bởi PCA không?


1
Bài báo bạn trích dẫn sử dụng bộ mã hóa tự động tuyến tính, nghĩa là không có chức năng kích hoạt phi tuyến tính. Đó là lý do tại sao trọng lượng của nó trải dài trên cùng một không gian con được PCA kéo dài.
elliotp

6

{xiRn}i=1NN nXx1,,xN

h1=W1x+b1x^=W2h1+b2

x^W1Rn×mW2Rm×nm<n

mW2mX

W2mXXn×NW2m×nW2O(m2n)XO(n2N)m<n

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.