Không, họ không. Về cơ bản chúng tôi thiết kế chúng để chúng không thể giữ khoảng cách. Bộ mã hóa tự động là một mạng nơ-ron học cách biểu diễn "có ý nghĩa" của đầu vào, duy trì các tính năng "ngữ nghĩa" của nó. Các từ được trích dẫn (như rất nhiều thuật ngữ trong bài viết Deep Learning) không có định nghĩa chặt chẽ, nhưng giả sử rằng, được đào tạo về một bộ đầu vào, bộ mã hóa tự động nên tìm hiểu một số tính năng phổ biến của các đầu vào này, cho phép tái tạo một đầu vào không nhìn thấy với nhỏ lỗi 1 .
Cách đơn giản nhất để bộ mã hóa tự động giảm thiểu sự khác biệt giữa đầu vào và đầu ra (đầu vào được xây dựng lại) là chỉ đầu ra đầu vào, tức là, để tìm hiểu chức năng nhận dạng, là một hình học, do đó nó bảo toàn khoảng cách. Tuy nhiên, chúng tôi không muốn trình mã hóa tự động chỉ đơn giản là tìm hiểu bản đồ nhận dạng, vì nếu không, chúng tôi không học cách biểu diễn "có ý nghĩa" hoặc nói tốt hơn, chúng tôi không học cách "nén" đầu vào bằng cách học cơ bản các tính năng ngữ nghĩa và "vứt bỏ" các chi tiết phút (tiếng ồn, trong trường hợp khử nhiễu tự động).
Để ngăn bộ mã hóa tự động học chuyển đổi nhận dạng và buộc nó phải nén đầu vào, chúng tôi giảm số lượng đơn vị trong các lớp ẩn của bộ mã hóa tự động (lớp hoặc nút cổ chai). Nói cách khác, chúng tôi buộc nó phải học một hình thức giảm kích thước phi tuyến: không phải là không có gì, có một mối liên hệ sâu sắc giữa bộ tự động tuyến tính và PCA , một quy trình thống kê nổi tiếng để giảm kích thước tuyến tính.
Tuy nhiên, điều này phải trả giá : bằng cách buộc bộ mã hóa tự động thực hiện một số loại giảm kích thước phi tuyến, chúng tôi ngăn không cho nó giữ khoảng cách. Như một vấn đề thực tế, bạn có thể chứng minh rằng không tồn tại đẳng hình, tức là không có biến đổi bảo toàn khoảng cách, giữa hai không gian EuclideEn và Em nếu m < n(điều này được chứng minh ngầm trong bằng chứng này của một tuyên bố khác ). Nói cách khác, một phép biến đổi giảm kích thước có thể là một hình học. Điều này khá trực quan, thực tế: nếu bộ mã hóa tự động phải học cách ánh xạ các phần tử của không gian vectơ chiều caoV, cho các yếu tố của một đa tạp chiều thấp hơn M nhúng vào V, nó sẽ phải "hy sinh" một số hướng trong V, có nghĩa là hai vectơ chỉ khác nhau dọc theo các hướng này sẽ được ánh xạ tới cùng một phần tử của M. Do đó, khoảng cách của chúng, ban đầu khác không, không được bảo toàn (nó trở thành 0).
LƯU Ý : có thể tìm hiểu ánh xạ của tập hợp hữu hạn các phần tử củaV S= {v1, ... ,vn}, đến một tập hợp các phần tử hữu hạn O = {w1, ... ,wn} ∈ M, sao cho khoảng cách cặp được bảo toàn. Đây là những gì quy mô đa chiều cố gắng làm. Tuy nhiên, không thể ánh xạ tất cả các yếu tố củaV đến các yếu tố của một không gian chiều thấp hơn W trong khi bảo toàn khoảng cách.
1 điều trở nên phức tạp hơn khi chúng ta đề cập đến hương vị yêu thích của bộ tự động mã hóa, Bộ biến đổi tự động biến đổi, nhưng tôi sẽ không tập trung vào chúng ở đây.