Tôi đang đọc sách GPML và trong Chương 2 (trang 15) , nó cho biết cách thực hiện hồi quy bằng Gaussian Process (GP), nhưng tôi gặp khó khăn khi tìm hiểu cách thức hoạt động của nó.
Trong suy luận Bayes cho các mô hình tham số, trước tiên chúng ta chọn ưu tiên cho các tham số mô hình , đó là ; thứ hai, với dữ liệu huấn luyện , chúng tôi tính toán khả năng ; và cuối cùng chúng ta có hậu tố của là , sẽ được sử dụng trong phân phối dự đoán , và ở trên là những gì chúng ta làm trong suy luận Bayes cho các mô hình tham số, phải không?p ( θ ) D p ( D | θ ) θ p ( θ | D )
Vâng, như đã nói trong cuốn sách, GP là không tham số, và theo như tôi hiểu, sau khi chỉ định hàm trung bình và hàm hiệp phương sai , chúng ta có GP trên hàm , và đây là ưu tiên của . Bây giờ tôi có bộ dữ liệu đào tạo không có tiếng ồn Tôi nghĩ rằng tôi nên tính toán khả năng và sau đó là sau , và cuối cùng sử dụng hậu thế để đưa ra dự đoán. f f ∼ G P ( m , k )
TUY NHIÊN, đó không phải là những gì cuốn sách làm! Ý tôi là, sau khi chỉ định đó, nó không tính toán khả năng và hậu quả, mà chỉ đi thẳng vào dự đoán dự đoán.
Câu hỏi:
1) Tại sao không tính toán khả năng và hậu thế? Chỉ vì GP là không tham số, vì vậy chúng tôi không làm điều đó?
2) Như những gì được thực hiện trong cuốn sách (trang 15 ~ 16), nó xuất phát phân phối dự đoán thông qua phân phối chung của tập dữ liệu huấn luyện và tập dữ liệu kiểm tra , được gọi là khớp trước . Được rồi, điều này làm tôi bối rối, tại sao lại liên kết chúng lại với nhau?f *
3) Tôi thấy một số bài báo gọi là biến tiềm ẩn , tại sao?