Câu hỏi được gắn thẻ «cross-entropy»

5
Chức năng mất nào cho các nhiệm vụ phân loại đa lớp, đa nhãn trong các mạng thần kinh?
Tôi đang đào tạo một mạng lưới thần kinh để phân loại một tập hợp các đối tượng thành các lớp n. Mỗi đối tượng có thể thuộc nhiều lớp cùng một lúc (đa lớp, đa nhãn). Tôi đọc rằng đối với các vấn đề đa lớp, thông thường nên …

6
Backpropagation với Softmax / Cross Entropy
Tôi đang cố gắng hiểu làm thế nào backpropagation hoạt động cho lớp đầu ra softmax / cross-entropy. Hàm lỗi entropy chéo là E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j với và là mục tiêu và đầu ra tại nơron , tương ứng. Tổng là trên mỗi nơ ron trong lớp đầu ra. …


3
Học máy: Tôi nên sử dụng một entropy chéo phân loại hoặc mất entropy chéo nhị phân cho dự đoán nhị phân?
Trước hết, tôi nhận ra nếu tôi cần thực hiện dự đoán nhị phân, tôi phải tạo ít nhất hai lớp thông qua thực hiện mã hóa một nóng. Điều này có đúng không? Tuy nhiên, có phải entropy chéo nhị phân chỉ dành cho dự đoán chỉ có một …

2
Tại sao có nghĩa là bình phương sai số entropy chéo giữa phân bố theo kinh nghiệm và mô hình Gaussian?
Trong 5.5, Deep Learning (của Ian Goodfellow, Yoshua Bengio và Aaron Courville), nó nói rằng Bất kỳ tổn thất nào bao gồm khả năng đăng nhập âm là một entropy chéo giữa phân phối theo kinh nghiệm được xác định bởi tập huấn luyện và phân phối xác suất được …










Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.