Câu hỏi được gắn thẻ «dimensionality-reduction»

Đề cập đến các kỹ thuật để giảm một số lượng lớn các biến hoặc kích thước được kéo dài bởi dữ liệu đến một số lượng kích thước nhỏ hơn trong khi vẫn giữ được càng nhiều thông tin về dữ liệu càng tốt. Các phương pháp nổi bật bao gồm PCA, MDS, Isomap, v.v ... Hai lớp con chính của kỹ thuật: trích xuất tính năng và lựa chọn tính năng.


1
Mối liên hệ giữa bình phương tối thiểu một phần, hồi quy xếp hạng giảm và hồi quy thành phần chính là gì?
Là giảm hồi quy xếp hạng và hồi quy thành phần chính chỉ là trường hợp đặc biệt của bình phương nhỏ nhất một phần? Hướng dẫn này (Trang 6, "So sánh các mục tiêu") nói rằng khi chúng ta thực hiện bình phương tối thiểu một phần mà không …


4
Biến nào giải thích thành phần PCA nào và ngược lại?
Sử dụng dữ liệu này: head(USArrests) nrow(USArrests) Tôi có thể làm PCA như vậy: plot(USArrests) otherPCA <- princomp(USArrests) Tôi có thể nhận được các thành phần mới trong otherPCA$scores và tỷ lệ phương sai được giải thích bởi các thành phần với summary(otherPCA) Nhưng điều gì sẽ xảy ra nếu …





1
Đại số của LDA. Sức mạnh phân biệt đối xử của một phân tích phân biệt đối xử và tuyến tính
Rõ ràng, phân tích Fisher nhằm tối đa hóa sự phân tách giữa các lớp, đồng thời giảm thiểu sự phân tán trong lớp. Do đó, một thước đo hữu ích về khả năng phân biệt đối xử của một biến được đưa ra bởi số lượng đường chéo: .Bii/WiiBii/WiiB_{ii}/W_{ii} …



5
Làm thế nào để thực hiện việc cắt bỏ các giá trị trong số lượng điểm dữ liệu rất lớn?
Tôi có một bộ dữ liệu rất lớn và thiếu khoảng 5% giá trị ngẫu nhiên. Các biến này có mối tương quan với nhau. Ví dụ R tập dữ liệu sau đây chỉ là một ví dụ đồ chơi với dữ liệu tương quan giả. set.seed(123) # matrix of …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 




Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.