Nói chung, lời nguyền về chiều khiến cho vấn đề tìm kiếm trong một không gian trở nên khó khăn hơn nhiều và ảnh hưởng đến phần lớn các thuật toán "học" thông qua việc phân vùng không gian vectơ của chúng. Tính chiều hướng của vấn đề tối ưu hóa của chúng tôi càng cao, chúng tôi càng cần nhiều dữ liệu để lấp đầy khoảng trống mà chúng tôi đang tối ưu hóa.
Mô hình tuyến tính tổng quát
Các mô hình tuyến tính chịu đựng vô cùng từ lời nguyền của chiều. Các mô hình tuyến tính phân vùng không gian trong một mặt phẳng tuyến tính. Thậm chí nếu chúng ta không tìm cách để trực tiếp tính toán β = ( X
β^= ( X'X)- 1X'y
Cây quyết định Cây
quyết định cũng chịu lời nguyền của chiều. Cây quyết định trực tiếp phân vùng không gian mẫu tại mỗi nút. Khi không gian mẫu tăng lên, khoảng cách giữa các điểm dữ liệu tăng lên, điều này khiến việc tìm phân chia "tốt" trở nên khó khăn hơn nhiều.
Rừng ngẫu nhiên Rừng
ngẫu nhiên sử dụng một tập hợp các cây quyết định để đưa ra dự đoán của họ. Nhưng thay vì sử dụng tất cả các tính năng của vấn đề của bạn, các cây riêng lẻ chỉ sử dụng một tập hợp con các tính năng. Điều này giảm thiểu không gian mà mỗi cây được tối ưu hóa và có thể giúp chống lại vấn đề về lời nguyền của chiều.
Các
thuật toán tăng cường của Boosted Tree như AdaBoost phải chịu lời nguyền về chiều và có xu hướng quá mức nếu không sử dụng chính quy. Tôi sẽ không đi sâu, vì bài đăng AdaBoost ít hoặc dễ bị quá tải?
giải thích lý do tại sao tốt hơn tôi có thể.
Mạng lưới thần kinh
Mạng lưới thần kinh là lạ theo nghĩa là cả hai đều và không bị tác động bởi lời nguyền của chiều kích phụ thuộc vào kiến trúc, kích hoạt, độ sâu, v.v. Vì vậy, để nhắc lại lời nguyền về chiều là vấn đề cần một lượng lớn điểm rất cao kích thước để bao phủ một không gian đầu vào. Một cách để giải thích các mạng nơ ron sâu là nghĩ đến tất cả các lớp mong đợi lớp cuối cùng là thực hiện một phép chiếu phức tạp của một đa chiều chiều cao thành một đa chiều chiều thấp hơn, trong đó lớp cuối cùng phân loại trên cùng. Vì vậy, ví dụ trong mạng tích chập để phân loại trong đó lớp cuối cùng là lớp softmax, chúng ta có thể hiểu kiến trúc là thực hiện phép chiếu phi tuyến tính lên một kích thước nhỏ hơn và sau đó thực hiện hồi quy logistic đa cực (lớp softmax) trên phép chiếu đó. Vì vậy, trong một nghĩa nào đó, biểu diễn nén của dữ liệu của chúng tôi cho phép chúng tôi tránh được lời nguyền của chiều. Một lần nữa, đây là một cách giải thích, trong thực tế, lời nguyền về chiều không thực sự tác động đến các mạng lưới thần kinh, nhưng không ở cùng cấp độ với các mô hình được nêu ở trên.
SVM
SVM có xu hướng không quá nhiều như các mô hình tuyến tính tổng quát do sự chính quy hóa quá mức xảy ra. Kiểm tra bài này SVM, Quá mức, lời nguyền của chiều để biết thêm chi tiết.
K-NN, K-Phương tiện
Cả K-mean và K-NN đều bị ảnh hưởng rất nhiều bởi lời nguyền của chiều, vì cả hai đều sử dụng thước đo khoảng cách bình phương L2. Khi số lượng kích thước tăng khoảng cách giữa các điểm dữ liệu khác nhau cũng tăng theo. Đây là lý do tại sao bạn cần một số điểm lớn hơn để bao phủ nhiều không gian hơn với hy vọng khoảng cách sẽ được mô tả nhiều hơn.
Hãy hỏi chi tiết cụ thể về các mô hình, vì câu trả lời của tôi khá chung chung. Hi vọng điêu nay co ich.