Câu hỏi được gắn thẻ «loss-functions»

Một hàm được sử dụng để định lượng sự khác biệt giữa dữ liệu được quan sát và các giá trị dự đoán theo một mô hình. Tối thiểu hóa các hàm mất mát là một cách để ước tính các tham số của mô hình.

5
Chức năng mất nào cho các nhiệm vụ phân loại đa lớp, đa nhãn trong các mạng thần kinh?
Tôi đang đào tạo một mạng lưới thần kinh để phân loại một tập hợp các đối tượng thành các lớp n. Mỗi đối tượng có thể thuộc nhiều lớp cùng một lúc (đa lớp, đa nhãn). Tôi đọc rằng đối với các vấn đề đa lớp, thông thường nên …

3
Học máy: Tôi nên sử dụng một entropy chéo phân loại hoặc mất entropy chéo nhị phân cho dự đoán nhị phân?
Trước hết, tôi nhận ra nếu tôi cần thực hiện dự đoán nhị phân, tôi phải tạo ít nhất hai lớp thông qua thực hiện mã hóa một nóng. Điều này có đúng không? Tuy nhiên, có phải entropy chéo nhị phân chỉ dành cho dự đoán chỉ có một …


2
Hàm chi phí trong hồi quy tuyến tính OLS
Tôi hơi bối rối với một bài giảng về hồi quy tuyến tính được đưa ra bởi Andrew Ng trên Coursera về học máy. Ở đó, ông đã đưa ra một hàm chi phí tối thiểu hóa tổng bình phương là: 12m∑i=1m(hθ(X(i))−Y(i))212m∑i=1m(hθ(X(i))−Y(i))2 \frac{1}{2m} \sum _{i=1}^m \left(h_\theta(X^{(i)})-Y^{(i)}\right)^2 Tôi hiểu đến từ …


4
Hàm mất nào là đúng cho hồi quy logistic?
Tôi đọc về hai phiên bản của hàm mất cho hồi quy logistic, phiên bản nào là đúng và tại sao? Từ Machine Learning , Zhou ZH (bằng tiếng Trung Quốc), với :β=(w,b) and βTx=wTx+bβ=(w,b) and βTx=wTx+b\beta = (w, b)\text{ and }\beta^Tx=w^Tx +b l(β)=∑i=1m(−yiβTxi+ln(1+eβTxi))(1)(1)l(β)=∑i=1m(−yiβTxi+ln⁡(1+eβTxi))l(\beta) = \sum\limits_{i=1}^{m}\Big(-y_i\beta^Tx_i+\ln(1+e^{\beta^Tx_i})\Big) \tag 1 Từ khóa …

5
Cách xử lý dữ liệu phân cấp / lồng nhau trong học máy
Tôi sẽ giải thích vấn đề của tôi bằng một ví dụ. Giả sử bạn muốn dự đoán thu nhập của một cá nhân được cung cấp một số thuộc tính: {Tuổi, Giới tính, Quốc gia, Vùng, Thành phố}. Bạn có một tập dữ liệu đào tạo như vậy train …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
XGBoost Mất chức năng xấp xỉ với mở rộng Taylor
Ví dụ: lấy hàm mục tiêu của mô hình XGBoost trên lần lặp thứ :ttt L( t )= ∑i = 1nℓ ( ytôi, y^( t - 1 )tôi+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) Trong đó là hàm mất, là đầu ra của cây và là chính quy. Một trong những bước chính (nhiều) để tính …



1
Mất đào tạo đi xuống và lên một lần nữa. Chuyện gì đang xảy ra vậy?
Mất tập luyện của tôi đi xuống và sau đó lên một lần nữa. Nó rất kỳ lạ. Mất xác nhận chéo theo dõi tổn thất đào tạo. Chuyện gì đang xảy ra vậy? Tôi có hai LSTMS xếp chồng như sau (trên Keras): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), …

3
Gradient mất bản lề
Tôi đang cố gắng thực hiện giảm độ dốc cơ bản và tôi đang thử nghiệm nó với chức năng mất bản lề, ví dụ: . Tuy nhiên, tôi bối rối về độ dốc của bản lề. Tôi có ấn tượng rằng nó làlhinge=max(0,1−y x⋅w)lhinge=max(0,1−y x⋅w)l_{\text{hinge}} = \max(0,1-y\ \boldsymbol{x}\cdot\boldsymbol{w}) ∂∂wlhinge={−y …

2
Hồi quy lượng tử: Hàm mất
Tôi đang cố gắng để hiểu hồi quy lượng tử, nhưng một điều khiến tôi đau khổ là sự lựa chọn của hàm mất mát. ρτ(u)=u(τ−1{u&lt;0})ρτ(u)=u(τ−1{u&lt;0})\rho_\tau(u) = u(\tau-1_{\{u<0\}}) Tôi biết rằng tối thiểu của kỳ vọng của ρτ(y−u)ρτ(y−u)\rho_\tau(y-u) bằng với τ%τ%\tau\% -quantile, nhưng lý do trực quan để bắt đầu …

2
Làm thế nào để thiết kế và thực hiện hàm mất đối xứng cho hồi quy?
Vấn đề Trong hồi quy, người ta thường tính sai số bình phương trung bình (MSE) cho một mẫu: MSE=1n∑i=1n(g(xi)−gˆ(xi))2MSE=1n∑i=1n(g(xi)−g^(xi))2 \text{MSE} = \frac{1}{n} \sum_{i=1}^n\left(g(x_i) - \widehat{g}(x_i)\right)^2 để đo lường chất lượng của một yếu tố dự báo. Ngay bây giờ tôi đang làm việc với một vấn đề hồi quy …


Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.