Câu hỏi được gắn thẻ «machine-learning»

Các thuật toán học máy xây dựng một mô hình của dữ liệu đào tạo. Thuật ngữ "học máy" được định nghĩa mơ hồ; nó bao gồm những gì còn được gọi là học thống kê, học tăng cường, học không giám sát, v.v ... LUÔN LUÔN THÊM MỘT THÊM THÊM CỤ THỂ.










1
Là định lý tương phản tương đối từ Beyer et al. tờ giấy: về hành vi đáng ngạc nhiên của các số liệu khoảng cách trong không gian chiều cao có thể gây hiểu lầm?
Điều này được trích dẫn rất thường xuyên khi đề cập đến lời nguyền của chiều và đi (công thức tay phải gọi là tương phản) limd→ ∞var ( | | Xd| |kE[ | | Xd| |k]) =0,sau đó: Dtối đakd- Đtối thiểukdDtối thiểukd→ 0limd→∞var(||Xd||kE[||Xd||k])= =0,sau đó:Dtối đadk-Dtối thiểudkDtối thiểudk→0 …



1
Điều gì biện minh cho tính toán này của đạo hàm của hàm ma trận?
Trong khóa học máy của Andrew Ng, anh sử dụng công thức này: ∇Atr(ABATC)=CAB+CTABT∇Atr(ABATC)=CAB+CTABT\nabla_A tr(ABA^TC) = CAB + C^TAB^T và anh ta làm một bằng chứng nhanh chóng được hiển thị dưới đây: ∇Atr(ABATC)=∇Atr(f(A)ATC)=∇∘tr(f(∘)ATC)+∇∘tr(f(A)∘TC)=(ATC)Tf′(∘)+(∇∘Ttr(f(A)∘TC)T=CTABT+(∇∘Ttr(∘T)Cf(A))T=CTABT+((Cf(A))T)T=CTABT+CAB∇Atr(ABATC)=∇Atr(f(A)ATC)=∇∘tr(f(∘)ATC)+∇∘tr(f(A)∘TC)=(ATC)Tf′(∘)+(∇∘Ttr(f(A)∘TC)T=CTABT+(∇∘Ttr(∘T)Cf(A))T=CTABT+((Cf(A))T)T=CTABT+CAB\nabla_A tr(ABA^TC) \\ = \nabla_A tr(f(A)A^TC) \\ = \nabla_{\circ} tr(f(\circ)A^TC) + \nabla_{\circ}tr(f(A)\circ^T C)\\ =(A^TC)^Tf'(\circ) + (\nabla_{\circ^T}tr(f(A)\circ^T C)^T …



Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.