Tôi khuyên bạn nên sử dụng "Phân phối Beta loại thứ hai" (viết tắt là Beta 2 ) để phân phối thông tin nhẹ và sử dụng phân phối gamma nghịch đảo liên hợp nếu bạn có niềm tin mạnh mẽ trước đó. Lý do tôi nói điều này là vì liên hợp trước là không mạnh theo nghĩa là, nếu xung đột trước và dữ liệu, thì trước có ảnh hưởng không giới hạn đến phân phối sau. Hành vi như vậy là những gì tôi sẽ gọi là "giáo điều", và không được chứng minh bằng thông tin nhẹ trước đó.
Các tài sản xác định sự mạnh mẽ là hành vi đuôi của trước và khả năng. Một bài viết rất tốt phác thảo các chi tiết kỹ thuật là ở đây . Ví dụ: khả năng có thể được chọn (giả sử phân phối t) như là một quan sát (tức là trở nên tùy tiện lớn) nó được bỏ đi từ việc phân tích các tham số vị trí (nhiều trong cùng một cách mà bạn sẽ trực giác làm với một quan sát như vậy). Tốc độ "loại bỏ" phụ thuộc vào mức độ nặng của phân phối.yi→∞
Một số slide trình bày một ứng dụng trong bối cảnh mô hình phân cấp có thể được tìm thấy ở đây (hiển thị dạng toán học của bản phân phối Beta 2 ), với một bài báo ở đây .
Nếu bạn không phải là trong bối cảnh mô hình thứ bậc, sau đó tôi sẽ đề nghị so sánh sau (hoặc bất kỳ kết quả nào bạn đang tạo) nhưng sử dụng Jeffreys trước cho một tham số quy mô, mà được cho bởi . Điều này có thể được tạo ra như là một giới hạn củamật độBeta2vì cả hai tham số của nó đều hội tụ về không. Đối với một xấp xỉ, bạn có thể sử dụng các giá trị nhỏ. Nhưng tôi sẽ cố gắng tìm ra giải phápp(σ)∝1σ phân tích nếu có thể (và nếu không phải là một giải pháp phân tích hoàn chỉnh, hãy lấy giải pháp phân tích tiến bộ nhất có thể), bởi vì bạn sẽ không chỉ tiết kiệm thời gian tính toán cho mình, mà là bạn cũng có khả năng hiểu những gì đang xảy ra trong mô hình của bạn tốt hơn.
Một cách khác là xác định thông tin trước của bạn dưới dạng các ràng buộc (có nghĩa là bằng , phương sai bằng V , IQR bằng I Q R , v.v. với các giá trị của M , V , I Q R do chính bạn chỉ định), và sau đó sử dụng phân phối tối đa entropy (tìm kiếm bất kỳ công việc của Edwin Jaynes hoặc Larry Bretthorst cho một lời giải thích tốt về những gì Maximum entropy là gì và nó không phải là) đối với Jeffreys' biện pháp bất biến "với m ( σ ) = 1MVIQRM,V,IQR . m(σ)=1σ
MaxEnt là phiên bản "Rolls Royce", trong khi Beta 2 là phiên bản "sedan" hơn. Lý do cho điều này là do bản phân phối MaxEnt "giả định ít nhất" tuân theo các ràng buộc mà bạn đã đặt vào nó (ví dụ: không có ràng buộc nào có nghĩa là bạn chỉ nhận được Jeffreys trước đó), trong khi bản phân phối Beta 2 có thể chứa một số tính năng "ẩn" có thể hoặc không thể mong muốn trong trường hợp cụ thể của bạn (ví dụ: nếu thông tin trước đó đáng tin cậy hơn dữ liệu, thì Beta 2 là xấu).
Một đặc tính tốt khác của phân phối MaxEnt là nếu không có các ràng buộc không xác định nào hoạt động trong cơ chế tạo dữ liệu thì phân phối MaxEnt hoàn toàn là phân phối có khả năng nhất mà bạn sẽ thấy (chúng ta đang nói về tỷ lệ cược qua hàng tỷ và hàng nghìn tỷ đồng). Do đó, nếu phân phối bạn thấy không phải là phân phối MaxEnt, thì có thể có các ràng buộc bổ sung mà bạn chưa chỉ định hoạt động trên quy trình thực và các giá trị quan sát có thể cung cấp manh mối về ràng buộc đó có thể là gì.