Mạng truyền bá nhiều lớp Mạng thần kinh để phân loại


8

Ai đó có thể giải thích cho tôi, làm thế nào để phân loại dữ liệu như MNIST với mạng MLBP-Neural nếu tôi tạo nhiều hơn một đầu ra (ví dụ 8), ý tôi là nếu tôi chỉ sử dụng một đầu ra, tôi có thể dễ dàng phân loại dữ liệu, nhưng nếu tôi sử dụng nhiều hơn Tôi nên chọn đầu ra nào?



Vui lòng, thêm thông tin / liên kết tham chiếu trên dữ liệu MNIST đó , để làm cho bài đăng của bạn được khép kín. Cảm ơn.
Rubens

Câu trả lời:


5

Giả sử rằng bạn cần phân loại một cái gì đó trong các lớp K, trong đó K> 2. Trong trường hợp này, thiết lập thường xuyên nhất tôi sử dụng là một mã hóa nóng. Bạn sẽ có các cột đầu ra K và trong tập huấn luyện, bạn sẽ đặt tất cả các giá trị thành 0, ngoại trừ cột có chỉ số danh mục, có thể có giá trị 1. Do đó, đối với mỗi trường hợp tập dữ liệu đào tạo, bạn sẽ có tất cả các đầu ra có giá trị 0 hoặc 1, tất cả các kết quả đầu ra tổng bằng 1 cho mỗi trường hợp.

Điều này trông giống như một xác suất, nhắc nhở tôi về một kỹ thuật thường được sử dụng để kết nối một số đầu ra được mô hình hóa như xác suất. Đây được gọi là chức năng softmax, chi tiết hơn trên Wikipedia . Điều này sẽ cho phép bạn đặt một số ràng buộc cho các giá trị đầu ra (về cơ bản là khái quát hóa hàm logistic) để các giá trị đầu ra sẽ được mô hình hóa thành xác suất.

Cuối cùng, có hoặc không có softmax, bạn có thể sử dụng đầu ra làm hàm phân biệt để chọn danh mục phù hợp.

Một suy nghĩ cuối cùng khác là tránh mã hóa các biến của bạn theo cách được kết nối. Ví dụ, bạn có thể có biểu diễn nhị phân của chỉ mục danh mục. Điều này sẽ tạo cho người học một kết nối nhân tạo giữa một số đầu ra tùy ý. Mã hóa nóng có một ưu điểm là trung tính với cách các nhãn được lập chỉ mục.


2

Thuật toán được sử dụng trong trường hợp này được gọi là phân loại một-vs-all hoặc phân loại đa lớp.

Trong trường hợp của bạn, bạn phải học một lớp, ví dụ số 1, đánh dấu nó là dương và kết hợp bảy lớp còn lại trong một lớp phủ định. Mạng lưới thần kinh sẽ đưa ra xác suất của trường hợp này là lớp số 1 so với các lớp còn lại.

Trả lời, bạn phải gán một lớp tích cực khác, ví dụ số 2, gán tất cả các lớp khác là một lớp phủ định lớn và lấy lại xác suất dự đoán từ mạng.

Sau khi lặp lại thủ tục này cho tất cả tám lớp, chỉ định mỗi trường hợp cho lớp có xác suất tối đa từ tất cả các lớp được xuất ra từ mạng thần kinh.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.