MCMC và tăng dữ liệu


8

Tôi đã xem xét một câu hỏi tăng dữ liệu MCMC; hình thức chung của câu hỏi như sau:

Giả sử dữ liệu được thu thập trên một quy trình gợi ý và trước đó cho tham số tỷ lệ được đề xuất là . Dữ liệu được ghi lại và trình bày ở dạng điển hình (nghĩa là số lần xuất hiện của mỗi giá trị cho từ đến ), tuy nhiên, dữ liệu được thu thập không phân biệt đối xử trong trường hợp (nghĩa là tất cả các lần xuất hiện trong đó và được nhóm thành một loại).λ ~ Exp ( λ 0 ) X i 0 n X i1 X i = 0 X i = 1XiPois(λ)λExp(λ0)Xi0nXi1Xi=0Xi=1

Với dữ liệu, khả năng và mô tả trước ở trên, câu hỏi yêu cầu:

  • Hình thức sau của ,λ

  • Số lần xuất hiện trong đó .Xi=0

Tôi không thực sự chắc chắn làm thế nào để trả lời câu hỏi này, nhưng tôi biết rằng Gibbs Sampling có thể được sử dụng để tăng dữ liệu. Có ai có bất kỳ thông tin về làm thế nào điều này có thể được thực hiện?

BIÊN TẬP:

Tôi nên xác định rằng đó chủ yếu là phần thứ hai (số lần xuất hiện trong đó ) mà tôi không chắc chắn. Đối với phần đầu tiên (dạng sau của ), với khả năng và đề xuất trước đó, tôi đã suy luận (mặc dù tôi rất vui khi được sửa chữa):λXi=0λ

Được:

π(λ|x)p(x|λ)×p(λ)

Vì vậy, đối với mô hình được đưa ra ở trên:

π(λ|x)=λi=1nxii=1nxi!enλ×λ0eλλ0

Đơn giản hóa sản lượng:

π(λ|x)=λi=1nxii=1nxi!eλ(n+λ0)λ0

tỷ lệ thuận với (và do đó hình thức sau được đưa ra bởi):

π(λ|x)λi=1nxieλ(n+λ0)λ0

Câu trả lời:


5

Câu trả lời của bạn không giải thích cho thực tế rằng các quan sát bằng 0 và được kết hợp với nhau: những gì bạn đã tính là hậu nghiệm cho dữ liệu Poisson hoàn chỉnh, , thay vì dữ liệu tổng hợp hoặc hợp nhất , .( X 1 , Mạnh , X n )(X1,,Xn)(X1,,Xn)

Nếu chúng ta sử dụng quy ước xảy ra khi quan sát tương ứng với hoặc và quan sát đến , mật độ của vectơ quan sát là (sau một số đại số và hệ số) trong đó là số lần 'bằng một. Thuật ngữ cuối cùng giữa các dấu ngoặc ở trên là xác suất để có được 0 hoặc 1 trong trận hòa Poisson.X i = 1 X iXi=1Xi=1X * i = k > 1 X i = k ( X * 1 , ... , X * n ) π ( bước sóng | x * 1 , ... , x * n ) α bước sóng Σ n i = 1 x * i I (Xi=0Xi=k>1Xi=k(X1,,Xn) n1xi

π(λ|x1,,xn)λi=1nxiI(xi>1)exp{λ(λ0+n)}×{1+λ}n1
n1xi

Vì vậy, đây là sự thật / quan sát sau của bạn. Từ đó, bạn có thể thực hiện lấy mẫu Gibbs bằng cách

  1. Tạo ra "các quan sát bị thiếu" đã cho và các quan sát, cụ thể là mô phỏng , được đưa ra bởi p ( x i | λ , x i = 1 ) P ( x i = 0 | λ , x i = 1 ) = 1 - P ( x i = 1 | λ , x i = 1 ) = 1λp(xi|λ,xi=1)
    P(xi=0|λ,xi=1)=1P(xi=1|λ,xi=1)=11+λ.
  2. Tạo cung cấp "dữ liệu đã hoàn thành", tương đương với khi bạn đã tính toán.λ | x 1 , ...λ
    λ|x1,,xnG(ixi+1,n+λ0)

(Nếu bạn muốn biết thêm chi tiết, Ví dụ 9.7, tr.346, trong cuốn sách Phương pháp thống kê Monte Carlo của tôi với George Casella bao gồm chính xác cài đặt này.)


2
(2) Bất kỳ thuật toán MCMC nào cũng có thể bắt đầu bằng các giá trị tùy ý vì chuỗi Markov được lặp lại, đây là ý tưởng cốt lõi đằng sau các phương pháp Monte Carlo của chuỗi Markov. Lưu ý rằng là một tham số của ưu tiên: nó được chọn trước và không thay đổi sau khi dữ liệu được quan sát. λ0
Tây An

2
(3) Khi lấy mẫu từ phân phối Gamma ở bước 2 của bộ lấy mẫu Gibbs, lưu ý rằng tôi dựa trên dữ liệu hoàn chỉnh, được tạo ở bước 1 của bộ lấy mẫu Gibbs. Do đó, tôi "biết" mọi giá trị của , ngay cả những giá trị mà . Hãy cố gắng hiểu sự khác biệt giữa 'và ', đây là ý tưởng cơ bản đằng sau nguyên tắc tăng dữ liệu. x i = 1 x i x ixixi=1xixi
Tây An

2
(1) Phần tương ứng với các quan sát được nhóm lại. [{λ+1}exp(λ)]n1
Tây An

2
(2) Đây là xác suất có điều kiện (vui lòng tự mình làm toán):P(xi=0|λ,xi=1)=P(xi=0,xi=1|λ)/P(xi=1|λ)=P(xi=0|λ)/P(xi=1|λ)
Tây An

2
(3) Lấy mẫu Gibbs hoạt động theo điều kiện. Vì vậy, ở bước 2, chúng tôi điều kiện trên λ x ixi , chúng tôi đã mô phỏng ở bước 1 (và ở bước 1 trên chúng tôi đã mô phỏng ở bước 2). Điều này có nghĩa là những đó đã được biết (mặc dù chúng sẽ thay đổi ở lần lặp tiếp theo) và tổng là như vậy. Bạn chắc chắn cần phải đọc một số giới thiệu về Gibbs nếu điểm cơ bản này vẫn chưa rõ ràng với bạn ...λxi
Xi'an
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.