Thống kê và dữ liệu lớn

Q & A cho những người quan tâm đến thống kê, học máy, phân tích dữ liệu, khai thác dữ liệu và trực quan hóa dữ liệu



2
Tại sao lỗi không có trong các mô hình X1 được sử dụng rộng rãi hơn?
Khi chúng tôi tính toán sai số chuẩn của hệ số hồi quy, chúng tôi không giải thích cho tính ngẫu nhiên trong ma trận thiết kế . Ví dụ, trong OLS, chúng tôi tính toán làXXXvar ( β^)var(β^)\text{var}(\hat{\beta})var ( ( XTX)- 1XTY) = σ2( XTX)- 1var((XTX)−1XTY)=σ2(XTX)−1\text{var}((X^TX)^{-1}X^TY) = \sigma^2(X^TX)^{-1} Nếu …


1
Xấp xỉ bậc hai của hàm mất (Sách học sâu, 7.33)
Trong cuốn sách của Goodfellow (2016) về học tập sâu, ông đã nói về sự tương đương của việc dừng sớm với chính quy L2 ( https://www.deeplearningbook.org/contents/THERization.html trang 247). Xấp xỉ bậc hai của hàm chi phí jjj được cho bởi: J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) HHHf(w+ϵ)=f(w)+f′(w)⋅ϵ+12f′′(w)⋅ϵ2f(w+ϵ)=f(w)+f′(w)⋅ϵ+12f″(w)⋅ϵ2f(w+\epsilon)=f(w)+f'(w)\cdot\epsilon+\frac{1}{2}f''(w)\cdot\epsilon^2










2
Là Gibbs lấy mẫu một phương pháp MCMC?
Theo như tôi hiểu thì đó là (ít nhất, đó là cách Wikipedia định nghĩa nó ). Nhưng tôi đã tìm thấy tuyên bố này của Efron * (nhấn mạnh thêm): Chuỗi Markov Monte Carlo (MCMC) là câu chuyện thành công lớn của thống kê Bayes hiện đại. MCMC và …
11 mcmc  gibbs 

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.