Bạn đúng về dữ liệu không nhãn. RBM là mô hình thế hệ và được sử dụng phổ biến nhất là người học không giám sát.
Khi được sử dụng để xây dựng Mạng lưới niềm tin sâu sắc, quy trình điển hình nhất là chỉ cần huấn luyện từng RBM mới mỗi lần khi chúng được xếp chồng lên nhau. Vì vậy, sự phân kỳ tương phản không đi lên và xuống theo nghĩa mà tôi nghĩ bạn muốn nói. Nó chỉ hoạt động với một RBM tại một thời điểm, sử dụng lớp ẩn của RBM trên cùng trước đó làm đầu vào cho RBM trên cùng mới. Sau tất cả những điều này, bạn có thể coi chồng các trọng số RBM là các trọng số ban đầu cho một mạng nơ ron chuyển tiếp nguồn cấp dữ liệu tiêu chuẩn và huấn luyện bằng cách sử dụng dữ liệu được gắn nhãn và sao lưu của bạn hoặc làm một cái gì đó kỳ lạ hơn như sử dụng thuật toán đánh thức giấc ngủ. Lưu ý rằng chúng tôi đã không sử dụng bất kỳ dữ liệu được dán nhãn nào cho đến bước cuối cùng này, đó là một trong những lợi ích của các loại mô hình này.
Mặt khác, có một số cách bạn có thể sử dụng RBM để phân loại.
- Huấn luyện một RBM hoặc một chồng nhiều RBM. Sử dụng lớp ẩn trên cùng làm đầu vào cho một số người học được giám sát khác.
- Huấn luyện RBM cho mỗi lớp và sử dụng năng lượng không chuẩn hóa làm đầu vào cho phân loại phân biệt đối xử.
- Huấn luyện RBM trở thành mô hình mật độ chung của P (X, Y). Sau đó đưa ra một số đầu vào x, chỉ cần chọn lớp y làm giảm thiểu hàm năng lượng (chuẩn hóa không phải là vấn đề ở đây như ở trên vì hằng số Z là giống nhau cho tất cả các lớp).
- Huấn luyện một RBM phân biệt đối xử
Tôi đặc biệt khuyên bạn nên đọc qua báo cáo kỹ thuật Hướng dẫn thực hành về đào tạo các máy Boltzmann bị hạn chế của Geoff Hinton. Nó thảo luận về một số vấn đề này chi tiết hơn nhiều, cung cấp các mẹo vô giá, trích dẫn nhiều giấy tờ liên quan và có thể giúp làm sáng tỏ mọi sự nhầm lẫn khác mà bạn có thể có.