Câu hỏi được gắn thẻ «optimization»

Sử dụng thẻ này cho bất kỳ việc sử dụng tối ưu hóa trong số liệu thống kê.




3
Là tối ưu hóa PCA lồi?
Hàm mục tiêu của Phân tích thành phần chính (PCA) là giảm thiểu lỗi tái cấu trúc trong định mức L2 (xem phần 2.12 ở đây . Một quan điểm khác đang cố gắng tối đa hóa phương sai trên phép chiếu. Chúng tôi cũng có một bài viết xuất …

2
Làm thế nào để giải quyết độ lệch tuyệt đối tối thiểu bằng phương pháp đơn giản?
Dưới đây là độ lệch vấn đề tối thiểu tuyệt đối dưới liên quan: . Tôi biết nó có thể được sắp xếp lại thành vấn đề LP theo cách sau:argminwL(w)=∑ni=1|yi−wTx|arg⁡minwL(w)=∑i=1n|yi−wTx| \underset{\textbf{w}}{\arg\min} L(w)=\sum_{i=1}^{n}|y_{i}-\textbf{w}^T\textbf{x}| min∑ni=1uimin∑i=1nui\min \sum_{i=1}^{n}u_{i} ui≥xTw−yii=1,…,nui≥xTw−yii=1,…,nu_i \geq \textbf{x}^T\textbf{w}- y_{i} \; i = 1,\ldots,n ui≥−(xTw−yi)i=1,…,nui≥−(xTw−yi)i=1,…,nu_i \geq -\left(\textbf{x}^T\textbf{w}-y_{i}\right) \; i = 1,\ldots,n …


1
Không có nghĩa là gì
Có phải việc sử dụng "variational" luôn đề cập đến tối ưu hóa thông qua suy luận đa dạng? Ví dụ: "Bộ mã hóa tự động biến đổi" "Phương pháp Bayesian" "Nhóm tái chuẩn hóa biến thể"

1
RMSProp và Adam vs SGD
Tôi đang thực hiện các thử nghiệm trên bộ xác thực EMNIST bằng cách sử dụng các mạng với RMSProp, Adam và SGD. Tôi đang đạt được độ chính xác 87% với SGD (tỷ lệ học là 0,1) và bỏ học (thăm dò bỏ học 0,1) cũng như chính quy …



1


1
Không có ý nghĩa gì
Trong blog học máy tôi thường xuyên bắt gặp từ "vanilla". Ví dụ: "Vanilla Gradient Descent" hoặc "Vanilla method". Thuật ngữ này theo nghĩa đen là không bao giờ thấy trong bất kỳ sách giáo khoa tối ưu hóa. Ví dụ, trong bài viết này , nó nói: Đây là …



Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.