Câu hỏi được gắn thẻ «least-squares»

Đề cập đến một kỹ thuật ước lượng chung chọn giá trị tham số để giảm thiểu chênh lệch bình phương giữa hai đại lượng, chẳng hạn như giá trị quan sát của một biến và giá trị dự kiến ​​của quan sát đó dựa trên giá trị tham số. Các mô hình tuyến tính Gaussian phù hợp với các bình phương tối thiểu và bình phương nhỏ nhất là ý tưởng làm cơ sở cho việc sử dụng lỗi bình phương trung bình (MSE) như một cách đánh giá một công cụ ước tính.


2
Mối tương quan giữa các công cụ ước tính OLS cho đánh chặn và độ dốc
Trong mô hình hồi quy đơn giản, y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, các công cụ ước tính OLS và có mối tương quan với nhau.ββ^OLS0β^0OLS\hat{\beta}_0^{OLS}β^OLS1β^1OLS\hat{\beta}_1^{OLS} Công thức cho mối tương quan giữa hai công cụ ước tính là (nếu tôi đã dẫn xuất chính xác): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. …





3
Những gì tất cả những người khác bằng nhau có nghĩa là trong hồi quy nhiều?
Khi chúng ta thực hiện nhiều hồi quy và nói rằng chúng ta đang xem xét sự thay đổi trung bình của biến để thay đổi một biến , giữ tất cả các biến khác không đổi, chúng ta đang giữ các biến khác ở giá trị nào? Ý nghĩa …



2
Bằng chứng là thống kê F tuân theo phân phối F
Trước câu hỏi này: Chứng minh rằng các hệ số trong mô hình OLS tuân theo phân phối t với (nk) bậc tự do Tôi rất muốn hiểu tại sao F=(TSS−RSS)/(p−1)RSS/(n−p),F=(TSS−RSS)/(p−1)RSS/(n−p), F = \frac{(\text{TSS}-\text{RSS})/(p-1)}{\text{RSS}/(n-p)}, Trong đó là số lượng tham số mô hình và số lượng quan sát và tổng …

2
Có bất kỳ lợi thế của SVD so với PCA?
Tôi biết cách tính toán PCA và SVD một cách toán học và tôi biết rằng cả hai đều có thể được áp dụng cho hồi quy tuyến tính Least Squares. Ưu điểm chính của SVD về mặt toán học dường như là nó có thể được áp dụng cho …
20 pca  least-squares  svd 




6
Giải thích trực quan về
Nếu là thứ hạng đầy đủ, nghịch đảo của tồn tại và chúng tôi nhận được ước tính bình phương nhỏ nhất: vàXXXXTXXTXX^TXβ^=(XTX)−1XYβ^=(XTX)−1XY\hat\beta = (X^TX)^{-1}XYVar(β^)=σ2(XTX)−1Var⁡(β^)=σ2(XTX)−1\operatorname{Var}(\hat\beta) = \sigma^2(X^TX)^{-1} Làm thế nào chúng ta có thể giải thích bằng trực giác (XTX)−1(XTX)−1(X^TX)^{-1} trong công thức phương sai? Kỹ thuật phái sinh là …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.