Câu hỏi được gắn thẻ «deep-learning»

Một lĩnh vực học máy liên quan đến việc học các biểu diễn phân cấp của dữ liệu, chủ yếu được thực hiện với các mạng lưới thần kinh sâu.

1
Chính xác thì khối Học tập còn lại trong bối cảnh Mạng lưới cư trú sâu trong Học tập sâu là gì?
Tôi đang đọc bài viết Học tập dư thừa sâu để nhận dạng hình ảnh và tôi gặp khó khăn trong việc hiểu chắc chắn 100% những gì một khối còn lại đòi hỏi tính toán. Đọc bài báo của họ, họ có hình 2: trong đó minh họa những …





5
Tôi nên sử dụng chức năng mất nào để phát hiện nhị phân trong phát hiện khuôn mặt / không mặt trong CNN?
Tôi muốn sử dụng học sâu để huấn luyện phát hiện nhị phân mặt / không mặt, tôi nên sử dụng mất gì, tôi nghĩ đó là SigmoidCrossEntropyLoss hoặc Hinge-loss . Có đúng không, nhưng tôi cũng tự hỏi có nên sử dụng softmax nhưng chỉ với hai lớp không?

1
Xấp xỉ bậc hai của hàm mất (Sách học sâu, 7.33)
Trong cuốn sách của Goodfellow (2016) về học tập sâu, ông đã nói về sự tương đương của việc dừng sớm với chính quy L2 ( https://www.deeplearningbook.org/contents/THERization.html trang 247). Xấp xỉ bậc hai của hàm chi phí jjj được cho bởi: J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) HHHf(w+ϵ)=f(w)+f′(w)⋅ϵ+12f′′(w)⋅ϵ2f(w+ϵ)=f(w)+f′(w)⋅ϵ+12f″(w)⋅ϵ2f(w+\epsilon)=f(w)+f'(w)\cdot\epsilon+\frac{1}{2}f''(w)\cdot\epsilon^2









Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.