Thống kê và dữ liệu lớn

Q & A cho những người quan tâm đến thống kê, học máy, phân tích dữ liệu, khai thác dữ liệu và trực quan hóa dữ liệu



1
Mất đào tạo đi xuống và lên một lần nữa. Chuyện gì đang xảy ra vậy?
Mất tập luyện của tôi đi xuống và sau đó lên một lần nữa. Nó rất kỳ lạ. Mất xác nhận chéo theo dõi tổn thất đào tạo. Chuyện gì đang xảy ra vậy? Tôi có hai LSTMS xếp chồng như sau (trên Keras): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), …








3
Tại sao sử dụng ước tính Lasso trên ước tính OLS trên tập hợp con của Lasso được xác định?
L(β)=(Xβ−y)′(Xβ−y)+λ∥β∥1,L(β)=(Xβ−y)′(Xβ−y)+λ‖β‖1,L(\beta)=(X\beta-y)'(X\beta-y)+\lambda\|\beta\|_1,kkkβ^lasso=(β^lasso1,β^lasso2,...,β^lassok,0,...0)β^lasso=(β^1lasso,β^2lasso,...,β^klasso,0,...0)\hat{\beta}^{lasso}=\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso},0,...0\right) Chúng tôi biết rằng (β^lasso1,β^lasso2,...,β^lassok)(β^1lasso,β^2lasso,...,β^klasso)\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso}\right) là một ước tính sai lệch của (β1,β2,...,βk)(β1,β2,...,βk)\left(\beta_1,\beta_2,...,\beta_k\right) , vậy tại sao chúng ta vẫn lấy β^lassoβ^lasso\hat{\beta}^{lasso} làm giải pháp cuối cùng, thay vì 'hợp lý' hơn β^new=(β^new1:k,0,...,0)β^new=(β^1:knew,0,...,0)\hat{\beta}^{new}=\left(\hat{\beta}_{1:k}^{new},0,...,0\right) , trong đó β^new1:kβ^1:knew\hat{\beta}_{1:k}^{new} là ước tính LS từ mô hình một phần Lnew(β1:k)=(X1:kβ−y)′(X1:kβ−y)Lnew(β1:k)=(X1:kβ−y)′(X1:kβ−y)L^{new}(\beta_{1:k})=(X_{1:k}\beta-y)'(X_{1:k}\beta-y) . ( …


4
Trực giác đằng sau độ lệch chuẩn
Tôi đang cố gắng để có được sự hiểu biết trực quan tốt hơn về độ lệch chuẩn. Theo những gì tôi hiểu, nó là đại diện cho mức trung bình của sự khác biệt của một tập hợp các quan sát trong một tập dữ liệu từ giá trị …



Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.