Tôi đang làm việc trên một mô hình học tập thể loại trực tuyến sử dụng gốc dốc ngẫu nhiên để phù hợp với mô hình hỗn hợp gaussian. Mô hình này dựa trên mô hình học tập trực tuyến được sử dụng trong Toscano & McM bồ (2010).
Mặc dù độ dốc gốc dường như hoạt động khá tốt để ước tính phương tiện và tần suất / xác suất trộn của các loại, tôi gặp vấn đề với việc ước tính hiệp phương sai của các thành phần hỗn hợp. Các dẫn xuất một phần mà tôi đã sử dụng cho bản cập nhật gốc giảm dần đến từ Petersen & Pedersen (2008) (trang 44)
Bắt đầu với
Petersen & Pedersen đưa ra đạo hàm riêng đối với ma trận hiệp phương sai như
Bước gradient descent cho mỗi , như tôi đã có nó được thực hiện bằng Python là (đây là một việc đơn giản hóa nhẹ và delta Σ cho tất cả các thành phần được tính toán trước khi thực hiện cập nhật):
j.sigma += learning_rate*(G(x)/M(x))*0.5*(-inv(j.sigma) + inv(j.sigma).dot((x-j.mu).dot((x-j.mu).transpose())).dot(inv(j.sigma)))
Vì vậy, tôi tự hỏi liệu có gì đó không đúng với mã của tôi (rất có thể) hoặc nếu đây chỉ là một cách thực sự tồi để phù hợp với mô hình này khi xử lý dữ liệu có nhiều hơn hai chiều (Xem Toscano & McM bồ để biết thuật toán cho đơn vị và dữ liệu bivariate chắc chắn hoạt động).
tài liệu tham khảo: Toscano, JC, & McM bồ, B. (2010). Tích hợp cue với các thể loại: Trọng số tín hiệu âm thanh trong lời nói bằng cách sử dụng học tập và thống kê phân phối không giám sát. Khoa học nhận thức, 34, 434-464.
Petersen & Pederson. The Matrix Cookbook, Phiên bản: 14 tháng 11 năm 2008