M∈{Normal,Log-normal}X={x1,...,xN}
P(M∣X)∝P(X∣M)P(M).
Phần khó khăn là có được khả năng cận biên ,
P(X∣M)=∫P(X∣θ,M)P(θ∣M)dθ.
p(θ∣M)XY={logx1,...,logxNYX,
P(X∣M=Log-Normal)=P(Y∣M=Normal)⋅∏i∣∣∣1xi∣∣∣.
P(θ∣M)P(σ2,μ∣M=Normal)P(M)
Thí dụ:
P(μ,σ2∣M=Normal)m0=0,v0=20,a0=1,b0=100
Theo Murphy (2007) (Công thức 203), khả năng cận biên của phân phối bình thường sau đó được đưa ra bởi
P(X∣M=Normal)=|vN|12|v0|12ba00baNnΓ(aN)Γ(a0)1πN/22N
aN,bN,vNP(μ,σ2∣X,M=Normal)
vNmNaNbN=1/(v−10+N),=(v−10m0+∑ixi)/vN,=a0+N2,=b0+12(v−10m20−v−1Nm2N+∑ix2i).
Tôi sử dụng cùng một siêu âm cho phân phối log-normal,
P(X∣M=Log-normal)=P({logx1,...,logxN}∣M=Normal)⋅∏i∣∣∣1xi∣∣∣.
0.1P(M=Log-normal)=0.1
hậu thế cư xử như thế này:
N
Khi thực hiện các phương trình, sẽ là một ý tưởng tốt để làm việc với mật độ log thay vì mật độ. Nhưng nếu không thì nó sẽ khá thẳng về phía trước. Đây là mã mà tôi đã sử dụng để tạo các ô:
https://gist.github.com/lucastheis/6094631