Trong một khóa học về máy học, tôi đã học được rằng một cách sử dụng phổ biến của PCA ( Phân tích thành phần chính ) là tăng tốc các thuật toán học máy khác. Ví dụ, hãy tưởng tượng bạn đang đào tạo một mô hình hồi quy logistic. Nếu bạn có tập huấn luyện cho i từ 1 đến n và hóa ra kích thước của vectơ x của bạn là rất lớn (giả sử kích thước), bạn có thể sử dụng PCA để lấy kích thước nhỏ hơn (giả sử k kích thước) tính năng vector z. Sau đó, bạn có thể huấn luyện mô hình hồi quy logistic của mình trên tập huấn luyện ( z ( i ) , y ( i ) cho tôi từ 1 đến n. Đào tạo mô hình này sẽ nhanh hơn vì vector tính năng của bạn có ít kích thước hơn.
Tuy nhiên, tôi không hiểu tại sao bạn không thể giảm kích thước của vectơ đặc trưng của mình xuống k kích thước bằng cách chỉ chọn k các tính năng của bạn một cách ngẫu nhiên và loại bỏ phần còn lại.
Các vectơ z là sự kết hợp tuyến tính của các vectơ đặc trưng của bạn. Vì các vectơ z được giới hạn ở bề mặt k chiều, bạn có thể viết các giá trị tính năng được loại bỏ ak dưới dạng hàm tuyến tính của các giá trị tính năng k còn lại, và do đó tất cả các z có thể được hình thành bằng cách kết hợp tuyến tính các tính năng k của bạn. Vì vậy, không phải một mô hình được đào tạo trên một tập huấn luyện với các tính năng bị loại bỏ có sức mạnh tương đương với một mô hình được đào tạo trên một tập huấn luyện mà kích thước đã bị PCA giảm? Có phải nó chỉ phụ thuộc vào loại mô hình và liệu nó có dựa vào một số loại kết hợp tuyến tính không?