Theo tôi hiểu, các mạng nơ-ron sâu đang thực hiện "học đại diện" bằng cách xếp các tính năng lại với nhau. Điều này cho phép học các cấu trúc chiều rất cao trong các tính năng. Tất nhiên, đó là một mô hình tham số với số lượng tham số cố định, do đó, có một hạn chế thông thường là độ phức tạp của mô hình có thể khó điều chỉnh.
Có cách Bayesian (không tham số) để tìm hiểu các cấu trúc như vậy trong không gian tính năng, cho phép độ phức tạp của mô hình để thích ứng với dữ liệu không? Các mô hình liên quan bao gồm:
- Dirichlet xử lý các mô hình hỗn hợp, cho phép một phân vùng không gian thành các cụm không giới hạn, cho phép dữ liệu chọn một số hữu hạn
- các mô hình giai thừa như Quy trình tự chọn Ấn Độ (IBP), tìm thấy số lượng tính năng tiềm ẩn vô hạn (còn gọi là chủ đề) giải thích dữ liệu.
Tuy nhiên, dường như IBP không học được các đại diện sâu sắc. Ngoài ra còn có vấn đề là các phương pháp này được thiết kế cho việc học tập không giám sát và thông thường chúng ta sử dụng học sâu cho các nhiệm vụ được giám sát. Có một biến thể của IBP hoặc các phương pháp khác cho phép các đại diện phát triển theo nhu cầu dữ liệu không?