Câu hỏi được gắn thẻ «machine-learning»

Các thuật toán học máy xây dựng một mô hình của dữ liệu đào tạo. Thuật ngữ "học máy" được định nghĩa mơ hồ; nó bao gồm những gì còn được gọi là học thống kê, học tăng cường, học không giám sát, v.v ... LUÔN LUÔN THÊM MỘT THÊM THÊM CỤ THỂ.

2
Làm thế nào sâu là kết nối giữa chức năng softmax trong ML và phân phối Boltzmann trong nhiệt động lực học?
Hàm softmax, thường được sử dụng trong các mạng thần kinh để chuyển đổi số thực thành xác suất, có chức năng tương tự như phân phối Boltzmann, phân phối xác suất trên các năng lượng để tạo ra các hạt ở trạng thái cân bằng nhiệt ở nhiệt độ …



1
Biến đổi mật độ xác suất khác nhau do yếu tố Jacobian
Trong Nhận dạng mẫu và Học máy của Giám mục, tôi đã đọc phần sau, ngay sau khi mật độ xác suất được giới thiệu:p(x∈(a,b))=∫bap(x)dxp(x∈(a,b))=∫abp(x)dxp(x\in(a,b))=\int_a^bp(x)\textrm{d}x Dưới sự thay đổi phi tuyến của biến, mật độ xác suất biến đổi khác với hàm đơn giản, do yếu tố Jacobian. Chẳng hạn, …

1
Làm cách nào để khớp trọng số vào các giá trị Q với xấp xỉ hàm tuyến tính
Trong học tăng cường, xấp xỉ hàm tuyến tính thường được sử dụng khi có không gian trạng thái lớn. (Khi tra cứu bảng trở nên không khả thi.) Dạng của giá trị với xấp xỉ hàm tuyến tính được cho bởiQ−Q−Q- Q(s,a)=w1f1(s,a)+w2f2(s,a)+⋯,Q(s,a)=w1f1(s,a)+w2f2(s,a)+⋯,Q(s,a) = w_1 f_1(s,a) + w_2 f_2(s,a) + …


4
Phân loại là gì?
Tôi không thể tìm thấy định nghĩa chung của phân loại là gì? Tôi hiểu làm thế nào nó có thể hoạt động, nhưng tôi không thể đi đến một định nghĩa.




2
Sự khác biệt giữa một mạng thần kinh LSTM đơn vị LSTM và 3 đơn vị
LSTM trong mã Keras sau input_t = Input((4, 1)) output_t = LSTM(1)(input_t) model = Model(inputs=input_t, outputs=output_t) print(model.summary()) có thể được đại diện như model.predict(np.array([[[1],[2],[3],[4]]]))x1=[1],x2=[2],x3=[3],x4=[4]x1=[1],x2=[2],x3=[3],x4=[4]x_1 = [1], x_2 = [2], x_3 = [3], x_4 = [4] Tôi không hiểu làm thế nào mạng thần kinh sau sẽ xử lý cùng một …


1
Không có ý nghĩa gì
Trong blog học máy tôi thường xuyên bắt gặp từ "vanilla". Ví dụ: "Vanilla Gradient Descent" hoặc "Vanilla method". Thuật ngữ này theo nghĩa đen là không bao giờ thấy trong bất kỳ sách giáo khoa tối ưu hóa. Ví dụ, trong bài viết này , nó nói: Đây là …



Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.