Câu hỏi được gắn thẻ «machine-learning»

Các thuật toán học máy xây dựng một mô hình của dữ liệu đào tạo. Thuật ngữ "học máy" được định nghĩa mơ hồ; nó bao gồm những gì còn được gọi là học thống kê, học tăng cường, học không giám sát, v.v ... LUÔN LUÔN THÊM MỘT THÊM THÊM CỤ THỂ.

2
Quá trình Gaussian và Tương quan
Tôi đã tự hỏi tại sao mọi người sử dụng các quy trình Gaussian (GP) để mô hình hóa một hàm chưa biết (đôi khi xác định). Ví dụ, hãy xem xét một hàm chưa biết . Chúng tôi có ba quan sát độc lập từ chức năng này: y=f(x)y=f(x)y=f(x)(x1,y1);(x2,y2);(x3,y3)(x1,y1);(x2,y2);(x3,y3)\big(x_1,y_1); …


1
vá đào tạo khôn ngoan và đào tạo tích chập hoàn toàn trong mạng lưới thần kinh tích chập hoàn toàn
Trong bài báo về mạng nơ ron tích chập hoàn toàn , các tác giả đề cập đến cả vá đào tạo khôn ngoan và đào tạo chập hoàn toàn. Sự hiểu biết của tôi cho việc xây dựng tập huấn luyện như sau: Đưa ra một M*Mhình ảnh, trích …

2
Đạo hàm của Softmax liên quan đến trọng lượng
Tôi mới học sâu và đang cố gắng tính đạo hàm của hàm sau đối với ma trận ww\mathbf w: p(a)=ew⊤axΣdew⊤dxp(a)=ewa⊤xΣdewd⊤xp(a) = \frac{e^{w_a^\top x}}{\Sigma_{d} e^{w_d^\top x}} Sử dụng quy tắc thương, tôi nhận được: ∂p(a)∂w=xew⊤axΣdew⊤dx−ew⊤axΣdxew⊤dx[Σdew⊤dx]2=0∂p(a)∂w=xewa⊤xΣdewd⊤x−ewa⊤xΣdxewd⊤x[Σdewd⊤x]2=0\frac{\partial p(a)}{\partial w} = \frac{xe^{w_a^\top x}\Sigma_{d} e^{w_d^\top x} - e^{w_a^\top x}\Sigma_{d} xe^{w_d^\top x}}{[\Sigma_{d} e^{w_d^\top x}]^2} = …

3
Tính toán Cập nhật Gradient diễn viên trong thuật toán Gradient chính sách xác định sâu (DDPG)
Câu hỏi này liên quan đến bài viết Deepmind trên DDPG: https://arxiv.org/pdf/1509.02971v5.pdf . Hầu hết (tất cả?) Việc triển khai thuật toán DDPG mà tôi đã thấy tính toán cập nhật độ dốc cho mạng diễn viên theo , trong đó đại diện cho các tham số của mạng diễn …

1
Học máy đơn điệu
Tôi có một phân loại nhị phân (học có giám sát) vấn đề, nơi mà tất cả các tính năng của tôi là boolean, với xoắn sau: Tôi muốn học một phân loại mà là đơn điệu . Nói cách khác, thay đổi bất kỳ tập hợp con các tính …





2
Làm thế nào để truyền sự không chắc chắn vào dự đoán của một mạng lưới thần kinh?
Tôi có đầu vào x1Giáo dụcxnx1…xnx_1\ldots x_n đã biết 1 σ1σ1\sigma sự không chắc chắn ε1Giáo dụcεnϵ1…ϵn\epsilon_1 \ldots \epsilon_n. Tôi đang sử dụng chúng để dự đoán đầu ray1Giáo dụcymy1…ymy_1 \ldots y_mtrên một mạng lưới thần kinh được đào tạo. Làm thế nào tôi có thể có được 1σσ\sigma sự …





Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.