Thống kê và dữ liệu lớn

Q & A cho những người quan tâm đến thống kê, học máy, phân tích dữ liệu, khai thác dữ liệu và trực quan hóa dữ liệu


4
Hàm mất nào là đúng cho hồi quy logistic?
Tôi đọc về hai phiên bản của hàm mất cho hồi quy logistic, phiên bản nào là đúng và tại sao? Từ Machine Learning , Zhou ZH (bằng tiếng Trung Quốc), với :β=(w,b) and βTx=wTx+bβ=(w,b) and βTx=wTx+b\beta = (w, b)\text{ and }\beta^Tx=w^Tx +b l(β)=∑i=1m(−yiβTxi+ln(1+eβTxi))(1)(1)l(β)=∑i=1m(−yiβTxi+ln⁡(1+eβTxi))l(\beta) = \sum\limits_{i=1}^{m}\Big(-y_i\beta^Tx_i+\ln(1+e^{\beta^Tx_i})\Big) \tag 1 Từ khóa …






3
Tiện ích của kỹ thuật tính năng: Tại sao tạo các tính năng mới dựa trên các tính năng hiện có?
Tôi thường thấy mọi người tạo ra các tính năng mới dựa trên các tính năng hiện có trên một vấn đề máy học. Ví dụ: tại đây: https://trigininequality.wordpress.com/2013/09/08/basic-feature-engineering-with-the-titanic-data/ mọi người đã coi quy mô của gia đình một người là một tính năng mới, dựa trên về số lượng …




13
Trực giác đằng sau công thức xác suất có điều kiện là gì?
Công thức cho xác suất có điều kiện của xảy ra khi đã xảy ra là:AA\text{A}P ( ABB\text{B}P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. Sách giáo khoa của tôi giải thích trực giác đằng sau điều này theo sơ đồ Venn. Cho rằng đã xảy ra, cách duy nhất …




Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.