Câu hỏi được gắn thẻ «dimensionality-reduction»

Đề cập đến các kỹ thuật để giảm một số lượng lớn các biến hoặc kích thước được kéo dài bởi dữ liệu đến một số lượng kích thước nhỏ hơn trong khi vẫn giữ được càng nhiều thông tin về dữ liệu càng tốt. Các phương pháp nổi bật bao gồm PCA, MDS, Isomap, v.v ... Hai lớp con chính của kỹ thuật: trích xuất tính năng và lựa chọn tính năng.






6
Nguyên tắc cách thu gọn các biến phân loại với nhiều cấp độ?
Những kỹ thuật nào có sẵn để thu gọn (hoặc gộp) nhiều loại thành một số ít, với mục đích sử dụng chúng làm đầu vào (dự đoán) trong mô hình thống kê? Hãy xem xét một biến như chuyên ngành sinh viên đại học (ngành học được chọn bởi …


2
Khi nào t-SNE gây hiểu lầm?
Trích dẫn từ một trong các tác giả: t-Phân phối Stochastic Neighbor Nhúng (t-SNE) là một kỹ thuật ( giành giải thưởng ) để giảm kích thước, đặc biệt phù hợp để hiển thị các bộ dữ liệu chiều cao. Nghe có vẻ khá tuyệt, nhưng đó là Tác giả …


1
Lý do trực quan đằng sau việc thực hiện các phép quay trong Phân tích nhân tố / PCA là gì và làm thế nào để chọn xoay vòng phù hợp?
Những câu hỏi của tôi Lý do trực quan đằng sau việc thực hiện luân chuyển các yếu tố trong phân tích nhân tố (hoặc các thành phần trong PCA) là gì? Sự hiểu biết của tôi là, nếu các biến được tải gần như bằng nhau trong các thành …



5
Cách xử lý dữ liệu phân cấp / lồng nhau trong học máy
Tôi sẽ giải thích vấn đề của tôi bằng một ví dụ. Giả sử bạn muốn dự đoán thu nhập của một cá nhân được cung cấp một số thuộc tính: {Tuổi, Giới tính, Quốc gia, Vùng, Thành phố}. Bạn có một tập dữ liệu đào tạo như vậy train …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


2
Tại sao LDA của Scikit-learn LDA không hoạt động chính xác và làm thế nào để tính toán LDA qua SVD?
Tôi đã sử dụng Phân tích phân biệt tuyến tính (LDA) từ scikit-learnthư viện máy học (Python) để giảm kích thước và có một chút tò mò về kết quả. Bây giờ tôi đang tự hỏi LDA scikit-learnđang làm gì để kết quả trông khác với, ví dụ, cách tiếp …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.