Tôi đã cố gắng tìm hiểu lại các số liệu thống kê của Bayes (mỗi lần tôi nghĩ cuối cùng tôi đã nhận được nó, một cái gì đó khác xuất hiện mà tôi đã không xem xét trước đó ....) nhưng không rõ (đối với tôi) quá trình tạo dữ liệu trong khung Bayesian thực sự là.
Khung thường xuyên rõ ràng với tôi. Có một số "true" tham số (s) và tham số mà tạo ra các dữ liệu theo sự phân bố rằng nó parametrizes.
Tuy nhiên, trong cài đặt Bayes, chúng tôi mô hình tham số dưới dạng một biến ngẫu nhiên. Phần đó không làm tôi bối rối. Nó có ý nghĩa, bởi vì một người Bayes giải thích xác suất này là sự không chắc chắn trong niềm tin của chính nó. Họ ổn với việc gán xác suất cho các sự kiện không thể lặp lại. Vì vậy, cách mà tôi diễn giải "chủ nghĩa Bayes" là, nó tin rằng có một số tham số tạo ra dữ liệu, nó chắc chắn là không xác định nhưng tuy nhiên, đã được sửa khi nó được quyết định bởi "tự nhiên" (và có lẽ tự nhiên đã quyết định ngẫu nhiên những gì nó được cho là được). Tuy nhiên, nó đã được sửa và do đó nó tạo ra là một "sự kiện không thể lặp lại". Mặc dù nó là nonrepeatable, chúng tôi chỉ cố gắng cập nhật niềm tin riêng của chúng tôi dữ liệu đã cho. Do đó, dữ liệu có thể được tạo bởi bất kỳ tham số nào đang được xem xét bởi phân phối xác suất của chúng tôi (trước đó), tuy nhiên, tham số này là cố định và không xác định. Chúng tôi chỉ gắn một giá trị xác suất cho nó.
Với quan điểm này, thật hợp lý khi tôi cho rằng quy trình tạo dữ liệu gần giống với quy trình thường xuyên. "Thiên nhiên" chọn tham số bằng cách sử dụng "true" "trước khi" phân phối P * ( θ ) và một khi các biến ngẫu nhiên mất nó "thực hiện đúng" (nhưng cố định), nó bắt đầu tạo ra các dữ liệu mà chúng tôi quan sát.
Đây có phải là cách tiêu chuẩn để diễn giải quy trình tạo dữ liệu trong khung Bayes?
Lưu ý bên hài hước:
Tôi ước có thể hỏi "Tự nhiên" cô ấy đang làm điều đó như thế nào và giải quyết chuyện này một lần và mãi mãi ... lol.