Câu hỏi được gắn thẻ «optimization»

Trong thống kê, điều này đề cập đến việc chọn một công cụ ước lượng của một tham số bằng cách tối đa hóa hoặc giảm thiểu một số chức năng của dữ liệu. Một ví dụ rất phổ biến là chọn công cụ ước lượng tối đa hóa mật độ chung (hoặc hàm khối lượng) của dữ liệu quan sát được gọi là Ước tính khả năng tối đa (MLE).

1
Tạo dự đoán trực giao (không tương quan) với một biến đã cho
Tôi có một Xma trận, một ybiến và một biến khác ORTHO_VAR. Tôi cần dự đoán ybiến bằng cách sử dụng X, tuy nhiên, các dự đoán từ mô hình đó cần phải trực giao ORTHO_VARtrong khi càng tương quan với ycàng tốt. Tôi muốn các dự đoán được tạo …
8 correlation  machine-learning  dataset  logistic-regression  prediction  linear-regression  prediction  dummy-variables  neural-network  image-classification  python  k-nn  python  neural-network  neural-network  deep-learning  keras  tensorflow  image-classification  tensorflow  reinforcement-learning  policy-gradients  machine-learning  decision-trees  neural-network  overfitting  data-analysis  metric  python  scikit-learn  distance  scipy  machine-learning  python  scikit-learn  decision-trees  logistic-regression  keras  image-classification  implementation  machine-learning  python  scikit-learn  random-forest  decision-trees  machine-learning  feature-selection  feature-engineering  word2vec  word-embeddings  natural-language-process  scikit-learn  time-series  clustering  k-means  python  cross-validation  pyspark  statistics  cross-validation  multiclass-classification  evaluation  machine-learning  nlp  machine-translation  neural-network  deep-learning  keras  tensorflow  image-classification  machine-learning  python  similarity  distance  lstm  text  named-entity-recognition  machine-learning  keras  optimization  gan  learning-rate  neural-network  data-mining  dataset  databases  books  neural-network  rnn 


1
Backpropagation: Trong các phương pháp bậc hai, đạo hàm ReLU có phải là 0 không? và tác dụng của nó đối với việc đào tạo?
ReLU là một chức năng kích hoạt được định nghĩa là h=max(0,a)h=max(0,a)h = \max(0, a)trong đó .a=Wx+ba=Wx+ba = Wx + b Thông thường, chúng tôi đào tạo mạng lưới thần kinh với các phương pháp bậc nhất như SGD, Adam, RMSprop, Adadelta hoặc Adagrad. Backpropagation trong các phương pháp bậc …

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.