Câu hỏi được gắn thẻ «gibbs»

Bộ lấy mẫu Gibbs là một dạng đơn giản của mô phỏng Markov Chain Monte Carlo, được sử dụng rộng rãi trong thống kê Bayes, dựa trên việc lấy mẫu từ các phân phối có điều kiện đầy đủ cho từng biến hoặc nhóm biến. Tên này xuất phát từ phương pháp được sử dụng lần đầu tiên trên mô hình trường ngẫu nhiên Gibbs của Geman và Geman (1984).

1
Lấy mẫu Gibbs cho mô hình Ising
Câu hỏi bài tập về nhà: Hãy xem xét mô hình Ising 1-d. Hãy để . x i là -1 hoặc +1x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Thiết kế một thuật toán lấy mẫu gibbs để tạo các mẫu xấp xỉ từ phân phối đích .π(x)π(x)\pi(x) Nỗ lực của tôi: …

2
Làm thế nào để các chương trình như BUGS / JAGS tự động xác định phân phối có điều kiện để lấy mẫu Gibbs?
Có vẻ như các điều kiện đầy đủ thường khá khó để lấy được, nhưng các chương trình như JAGS và BUGS tự động lấy chúng. Ai đó có thể giải thích làm thế nào họ thuật toán tạo ra các điều kiện đầy đủ cho bất kỳ đặc tả …

2
Nhầm lẫn liên quan đến lấy mẫu Gibbs
Tôi đã xem qua bài viết này nơi nó nói rằng trong mẫu Gibbs, mọi mẫu đều được chấp nhận. Tôi la một chut Nhâm lân. Làm thế nào đến nếu mỗi mẫu nó chấp nhận nó hội tụ đến một phân phối cố định. Nói chung Thuật toán đô …

2
Tính toán đường cong ROC cho dữ liệu
Vì vậy, tôi có 16 thử nghiệm trong đó tôi đang cố gắng xác thực một người từ một đặc điểm sinh trắc học bằng cách sử dụng Hamming Khoảng cách. Ngưỡng của tôi được đặt thành 3,5. Dữ liệu của tôi ở bên dưới và chỉ có bản dùng …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 



1
Cách chính xác để viết lưới đàn hồi là gì?
Tôi bối rối về cách chính xác để viết lưới đàn hồi. Sau khi đọc một số tài liệu nghiên cứu dường như có ba hình thức 1)điểm kinh nghiệm{ - λ1| βk| - λ2β2k}điểm kinh nghiệm⁡{-λ1|βk|-λ2βk2}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2)điểm kinh nghiệm{ - (λ1|βk| + λ2β2k)σ2√}điểm kinh nghiệm⁡{-(λ1|βk|+λ2βk2)σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3)điểm kinh nghiệm{ - …


1
Hạt nhân chuyển tiếp Gibbs Sampler
Hãy được phân phối mục tiêu trên mà là hoàn toàn liên tục WRT cho chiều đo Lebesgue, ví dụ:ππ\pi(Rd,B(Rd))(Rd,B(Rd))(\mathbb{R}^d,\mathcal{B}(\mathbb{R^d}))ddd ππ\pi thừa nhận mật độ wrt thành với π(x1,...,xd)π(x1,...,xd)\pi(x_1,...,x_d)λdλd\lambda^dλd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)λd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)\lambda^d(dx_1,...,dx_d) = \lambda(dx_1) \cdot \cdot \cdot \lambda (dx_d) Chúng ta hãy giả sử rằng các điều kiện đầy đủ từ được biết …


3
Tại sao lấy mẫu từ phân phối dự báo sau
Trong mô hình Bayes, phân phối dự báo sau thường được viết là: p (xne w|x1,...xn)= =∫∞- ∞p(xn e w∣ μ ) p ( μ|x1,...xn)dμp(xnew|x1,Giáo dụcxn)= =∫-∞∞p(xnew|μ) p(μ|x1,Giáo dụcxn)dμ p(x_{new} \mid x_1, \ldots x_n) = \int_{-\infty}^{\infty} p(x_{new}\mid \mu) \ p(\mu \mid x_1, \ldots x_n)d\mu cho một tham số trung bình …
7 bayesian  mcmc  gibbs 
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.