Khoảng dự đoán cho biến ngẫu nhiên nhị thức


13

Công thức (gần đúng hoặc chính xác) cho khoảng dự đoán cho biến ngẫu nhiên Binomial là gì?

Giả sử và chúng tôi quan sát (được rút ra từ ). Các được biết đến.YBinom(n,p)yYn

Mục tiêu của chúng tôi là để có được một khoảng thời gian dự đoán 95% cho một trận hòa mới từ .Y

Ước tính điểm là , trong đó . Một khoảng tin cậy cho là đơn giản, nhưng tôi không thể tìm thấy một công thức cho một khoảng thời gian dự đoán cho . Nếu chúng ta biết (chứ không phải ), thì khoảng dự đoán 95% chỉ liên quan đến việc tìm các lượng tử của nhị thức. Có cái gì đó rõ ràng tôi đang nhìn?np^p Yp pp^=ynp^Ypp^


1
Xem Những phương pháp phi Bayes nào có để suy luận tiên đoán? . Trong trường hợp này, phương pháp sử dụng pivots không khả dụng (tôi không nghĩ vậy) nhưng bạn có thể sử dụng một trong những khả năng dự đoán. Hoặc tất nhiên, một cách tiếp cận Bayes.
Scortchi - Tái lập Monica

1
Xin chào các bạn, tôi muốn dành một chút thời gian để giải quyết những mối quan tâm đã được nêu ra. - liên quan đến sự tự tin cho p: Tôi không quan tâm đến điều đó. - liên quan đến dự đoán là 95% phân phối: có, đó chính xác là khoảng thời gian dự đoán là bất kể bối cảnh nào (trong hồi quy bạn phải giả sử các lỗi bình thường, trong khi khoảng tin cậy dựa vào CLT - vâng, ví dụ về dự đoán số lượng đầu trong lật đồng xu là chính xác. Điều làm cho vấn đề này trở nên khó khăn là bây giờ chúng ta không "p", nhưng có một ước tính.
Statseeker

3
@Addison Đọc cuốn sách Khoảng thời gian thống kê của G. Hahn và W. Meeker. Họ giải thích sự khác biệt giữa khoảng tin cậy, khoảng dự đoán, khoảng dung sai và khoảng tin cậy Bayes. Khoảng dự đoán 95% không chứa 95% phân phối. Nó làm những gì hầu hết các khoảng thường xuyên làm. Nếu bạn lặp lại lấy mẫu từ B (n, p) và sử dụng cùng một phương pháp mỗi lần để tạo ra khoảng dự đoán 95% cho p thì 95% các khoảng dự đoán bạn sẽ chứa giá trị thực của p. Nếu bạn muốn bao phủ 95% phân phối, hãy xây dựng một khoảng dung sai.
Michael R. Chernick

Khoảng dung sai bao gồm một tỷ lệ phần trăm của phân phối. Đối với khoảng dung sai 95% cho 90% phân phối, bạn lặp lại quy trình nhiều lần và sử dụng cùng một phương pháp để tạo khoảng thời gian mỗi lần sau đó trong khoảng 95% trường hợp ít nhất 90% phân phối sẽ rơi vào khoảng và 5% thời gian dưới 90% phân phối sẽ được chứa trong khoảng.
Michael R. Chernick

3
Lawless & Fredette (2005), "Khoảng dự đoán thường xuyên và phân phối dự đoán", Biometrika , 92 , 3 là một tài liệu tham khảo tốt khác, ngoài những thông tin liên kết tôi đưa ra.
Scortchi - Phục hồi Monica

Câu trả lời:


22

Ok, chúng ta hãy thử điều này. Tôi sẽ đưa ra hai câu trả lời - câu trả lời Bayes, theo ý kiến ​​của tôi đơn giản và tự nhiên, và một trong những câu hỏi thường gặp có thể có.

Giải pháp Bayes

Chúng tôi giả định một trước Beta trên , i, e., P ~ B e t một ( α , β ) , bởi vì mô hình Beta-nhị thức là liên hợp, có nghĩa là phân bố sau cũng là một phân phối Beta với các thông số α = α + k , β = β + n - k , (tôi đang sử dụng k để biểu thị số lần thành công trong n thử nghiệm, thay vì y ). Do đó, suy luận được đơn giản hóa rất nhiều. Bây giờ, nếu bạn có một số kiến ​​thức trước về các giá trị có khả năng củappBeta(α,β)α^=α+k,β^=β+nkkny , bạn có thể sử dụng nó để thiết lập các giá trị của α β , ví dụ, để xác định Beta của bạn trước, nếu không bạn có thể giả định một bộ đồng phục (noninformative) trước, với α = β = 1 , hoặc priors noninformative khác (xem ví dụở đây). Trong mọi trường hợp, hậu thế của bạn làpαβα=β=1

Pr(p|n,k)=Beta(α+k,β+nk)

Trong suy luận Bayes, tất cả những gì quan trọng là xác suất sau, nghĩa là một khi bạn biết điều đó, bạn có thể suy luận cho tất cả các đại lượng khác trong mô hình của mình. Bạn muốn làm cho suy luận trên quan sát : đặc biệt, trên một vector của các kết quả mới y = y 1 , ... , y m , nơi m không nhất thiết phải bằng với n . Cụ thể, đối với mỗi j = 0 , ... , m , chúng tôi muốn để tính xác suất của việc có chính xác k thành công trong tiếp theo m thử nghiệm, cho rằng chúng tôi đã nhận kyy=y1,,ymmnj=0,,mjmkthành công trong các thử nghiệm trước đó ; chức năng khối dự đoán sau:n

Pr(j|m,y)=Pr(j|m,n,k)=01Pr(j,p|m,n,k)dp=01Pr(j|p,m,n,k)Pr(p|n,k)dp

Tuy nhiên, mô hình Binomial của chúng tôi cho có nghĩa là, với điều kiện p có một giá trị nhất định, xác suất để có j thành công trong các thử nghiệm m không phụ thuộc vào kết quả trong quá khứ: đơn giản làYpjm

f(j|m,p)=(jm)pj(1p)j

Do đó, biểu thức trở thành

Pr(j|m,n,k)=01(jm)pj(1p)jPr(p|n,k)dp=01(jm)pj(1p)jBeta(α+k,β+nk)dp

Kết quả của tích phân này là một phân phối nổi tiếng được gọi là phân phối Beta-Binomial: bỏ qua các đoạn, chúng ta có được biểu hiện khủng khiếp

Pr(j|m,n,k)=m!j!(mj)!Γ(α+β+n)Γ(α+k)Γ(β+nk)Γ(α+k+j)Γ(β+n+mkj)Γ(α+β+n+m)

Ước tính điểm của chúng tôi cho , mất bậc hai, tất nhiên là giá trị trung bình của phân phối này, nghĩa là,j

μ=m(α+k)(α+β+n)

Bây giờ, hãy tìm một khoảng dự đoán. Vì đây là một bản phân phối rời rạc, chúng tôi không có một biểu hiện hình thức đóng cửa cho , sao cho P r ( j 1j j 2 ) = 0,95 . Lý do là, tùy thuộc vào cách bạn xác định một lượng tử, đối với phân phối rời rạc, hàm lượng tử không phải là hàm hoặc là hàm không liên tục. Nhưng đây không phải là vấn đề lớn: đối với m nhỏ , bạn chỉ cần viết ra xác suất m P r ( j = 0[j1,j2]Pr(j1jj2)=0.95mm và từ đây tìm j 1 , j 2 sao choPr(j=0|m,n,k),Pr(j1|m,n,k),,Pr(jm1|m,n,k)j1,j2

Pr(j1jj2)=Pr(jj2|m,n,k)Pr(j<j1|m,n,k)0.95

Tất nhiên bạn sẽ tìm thấy nhiều hơn một cặp vợ chồng, vì vậy bạn sẽ lý tưởng nhất là tìm kiếm nhỏ nhất sao cho thỏa mãn ở trên. Lưu ý rằng[j1,j2]

Pr(j=0|m,n,k)=p0,Pr(j1|m,n,k)=p1,,Pr(jm1|m,n,k)=pm1

chỉ là các giá trị của CMF (Hàm khối tích lũy) của phân phối Beta-Binomial và do đó có biểu thức dạng đóng , nhưng điều này là về hàm siêu bội tổng quát và do đó khá phức tạp. Tôi chỉ muốn cài đặt gói R extraDistrvà gọi pbbinomđể tính CMF của bản phân phối Beta-Binomial. Cụ thể, nếu bạn muốn tính toán tất cả các xác suất trong một lần, chỉ cần viết:p0,,pm1

library(extraDistr)  
jvec <- seq(0, m-1, by = 1) 
probs <- pbbinom(jvec, m, alpha = alpha + k, beta = beta + n - k)

nơi alphabetalà những giá trị của các thông số của Beta trước đó, ví dụ, bạn β (do đó 1 nếu bạn đang sử dụng một bộ đồng phục trước khi qua p ). Tất nhiên mọi thứ sẽ đơn giản hơn nhiều nếu R cung cấp hàm lượng tử cho phân phối Beta-Binomial, nhưng thật không may là không.αβp

Ví dụ thực tế với giải pháp Bayes

Đặt , k = 70 (do đó ban đầu chúng tôi quan sát thấy 70 thành công trong 100 thử nghiệm). Chúng tôi muốn ước tính điểm và khoảng thời gian dự đoán 95% cho số lần thành công j trong m = 20 thử nghiệm tiếp theo . Sau đón=100k=70jm=20

n <- 100
k <- 70
m <- 20
alpha <- 1
beta  <- 1

trong đó tôi giả sử đồng phục trước : tùy thuộc vào kiến ​​thức trước cho ứng dụng cụ thể của bạn, điều này có thể hoặc không thể là ưu tiên tốt. Như vậyp

bayesian_point_estimate <- m * (alpha + k)/(alpha + beta + n) #13.92157

Rõ ràng một ước tính không nguyên cho không có ý nghĩa, vì vậy chúng ta chỉ có thể làm tròn đến số nguyên gần nhất (14). Sau đó, cho khoảng dự đoán:j

jvec <- seq(0, m-1, by = 1)
library(extraDistr)
probabilities <- pbbinom(jvec, m, alpha = alpha + k, beta = beta + n - k)

Xác suất là

> probabilities
 [1] 1.335244e-09 3.925617e-08 5.686014e-07 5.398876e-06
 [5] 3.772061e-05 2.063557e-04 9.183707e-04 3.410423e-03
 [9] 1.075618e-02 2.917888e-02 6.872028e-02 1.415124e-01
[13] 2.563000e-01 4.105894e-01 5.857286e-01 7.511380e-01
[17] 8.781487e-01 9.546188e-01 9.886056e-01 9.985556e-01

Đối với một bằng đuôi xác suất khoảng thời gian, chúng tôi muốn nhỏ P r ( j j 2 | m , n , k ) 0.975 và lớn j 1P r ( j < j 1 | m , n , k ) = P r ( j j 1 - 1 | m , n , kj2Pr(jj2|m,n,k)0.975j1 . Bằng cách này, chúng ta sẽ cóPr(j<j1|m,n,k)=Pr(jj11|m,n,k)0.025

Pr(j1jj2|m,n,k)=Pr(jj2|m,n,k)Pr(j<j1|m,n,k)0.9750.025=0.95

Do đó, bằng cách xem xét các xác suất trên, chúng ta thấy rằng j 1 = 9 . Xác suất của khoảng dự đoán Bayes này là 0,9778494, lớn hơn 0,95. Chúng ta có thể tìm thấy các khoảng thời gian ngắn hơn sao cho P r ( j 1j j 2 | m , n , k ) 0,95 , nhưng trong trường hợp đó, ít nhất một trong hai bất đẳng thức cho xác suất đuôi sẽ không được thỏa mãn.j2=18j1=9Pr(j1jj2|m,n,k)0.95

Giải pháp thường xuyên

Tôi sẽ theo dõi sự đối xử của Krishnamoorthy và Peng, 2011 . Đặt X B i n o m ( n , p ) được phân phối độc lập Binominally. Chúng tôi muốn có một 1 - 2 α - khoảng thời gian dự đoán cho Y , dựa trên một sự quan sát của X . Nói cách khác, chúng tôi tìm I = [ L ( X ; nYBinom(m,p)XBinom(n,p)12αYX sao cho:I=[L(X;n,m,α),U(X;n,m,α)]

PrX,Y(YI)=PrX,Y(L(X;n,m,α)YU(X;n,m,α)]12α

" " là do thực tế là chúng ta đang xử lý một biến ngẫu nhiên rời rạc, và do đó chúng ta không thể mong đợi có được phạm vi bảo hiểm chính xác ... nhưng chúng ta có thể tìm kiếm một khoảng luôn có ít nhất là phạm vi bảo hiểm danh nghĩa , do đó, một khoảng bảo thủ. Bây giờ, có thể chứng minh rằng phân phối có điều kiện của X cho X + Y = k + j = s là siêu bội với cỡ mẫu s , số lần thành công trong dân số n và kích thước dân số n + m . Do đó, pmf có điều kiện là12αXX+Y=k+j=ssnn+m

Pr(X=k|X+Y=s,n,n+m)=(nk)(msk)(m+ns)

The conditional CDF of X given X+Y=s is thus

Pr(Xk|s,n,n+m)=H(k;s,n,n+m)=i=0k(ni)(msi)(m+ns)

The first great thing about this CDF is that it doesn't depend on p, which we don't know. The second great thing is that it allows to easily find our PI: as a matter of fact, if we observed a value k of X, then the 1α lower prediction limit is the smallest integer L such that

Pr(Xk|k+L,n,n+m)=1H(k1;k+L,n,n+m)>α

correspondingly, the the 1α upper prediction limit is the largest integer such that

Pr(Xk|k+U,n,n+m)=H(k;k+U,n,n+m)>α

Thus, [L,U] is a prediction interval for Y of coverage at least 12α. Note that when p is close to 0 or 1, this interval is conservative even for large n, m, i.e., its coverage is quite larger than 12α.

Practical example with the Frequentist solution

Same setting as before, but we don't need to specify α and β (there are no priors in the Frequentist framework):

n <- 100
k <- 70
m <- 20

The point estimate is now obtained using the MLE estimate for the probability of successes, p^=kn, which in turns leads to the following estimate for the number of successes in m trials:

frequentist_point_estimate <- m * k/n #14

For the prediction interval, the procedure is a bit different. We look for the largest U such that Pr(Xk|k+U,n,n+m)=H(k;k+U,n,n+m)>α, thus let's compute the above expression for all U in [0,m]:

jvec <- seq(0, m, by = 1)
probabilities <- phyper(k,n,m,k+jvec)

We can see that the largest U such that the probability is still larger than 0.025 is

jvec[which.min(probabilities > 0.025) - 1] # 18

Same as for the Bayesian approach. The lower prediction bound L is the smallest integer such that Pr(Xk|k+L,n,n+m)=1H(k1;k+L,n,n+m)>α, thus

probabilities <- 1-phyper(k-1,n,m,k+jvec)
jvec[which.max(probabilities > 0.025) - 1] # 8

Thus our frequentist "exact" prediction interval is [L,U]=[8,18].

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.