Nói chung, Mạng nơ-ron không được sử dụng để mô hình hóa mật độ xác suất hoàn thành. Trọng tâm của họ là chỉ mô hình hóa giá trị trung bình của phân phối (hoặc trong tình huống xác định đơn giản là hàm phi tuyến tính). Tuy nhiên, rất có thể mô hình hóa mật độ xác suất hoàn thành thông qua Mạng thần kinh.
Một cách dễ dàng để làm điều này là ví dụ cho trường hợp Gaussian là phát ra giá trị trung bình từ một đầu ra và phương sai từ một đầu ra khác của mạng và sau đó thu nhỏ hàm như một phần của quá trình đào tạo thay vì lỗi bình phương phổ biến. Đây là thủ tục khả năng tối đa cho Mạng thần kinh.−logN(y|x;μ,σ)
Khi bạn huấn luyện mạng này mỗi khi bạn cắm một giá trị làm đầu vào, nó sẽ cung cấp cho bạn và , sau đó bạn có thể cắm toàn bộ bộ ba vào mật độ để lấy giá trị mật độ cho bất kỳ nào bạn thích. Ở giai đoạn này, bạn có thể chọn giá trị sẽ sử dụng dựa trên hàm mất tên miền thực. Một lưu ý là đối với , kích hoạt đầu ra không bị hạn chế để bạn có thể phát ra thành trong khi chỉ là kích hoạt tích cực.xμσy,μ,σf(y|x)∼N(μ,σ)yyμ−inf+infσ
Nói chung, trừ khi đó là một hàm xác định mà chúng ta đang theo đuổi, đào tạo mất bình phương tiêu chuẩn được sử dụng trong các mạng thần kinh là khá nhiều quy trình tôi đã mô tả ở trên. Dưới vỏ phân phối được giả định hoàn toàn mà không quan tâm đến và nếu bạn kiểm tra cẩn thận sẽ cho bạn một biểu thức cho mất bình phương ( Hàm mất của khả năng tối đa của Gaussian người ước tính ). Tuy nhiên, trong trường hợp này, thay vì giá trị theo ý thích của bạn, bạn bị mắc kẹt với việc phát ra mọi lúc khi được cung cấp một giá trị mới .Gaussianσ−logN(y|x;μ,σ)yμx
Để phân loại, đầu ra sẽ là phân phối thay vì , có một tham số duy nhất để phát ra. Như được chỉ định trong câu trả lời khác, tham số này nằm trong khoảng từ đến để kích hoạt đầu ra phải phù hợp. Nó có thể là một chức năng logistic hoặc một cái gì đó khác đạt được cùng một mục đích.BernoulliGaussian01
Một cách tiếp cận tinh vi hơn là Mạng mật độ hỗn hợp của Giám mục. Bạn có thể đọc về nó trong bài báo được tham khảo thường xuyên ở đây:
https://publications.aston.ac.uk/373/1/NCRG_94_004.pdf