Làm cách nào để mô hình tổng các biến ngẫu nhiên Bernoulli cho dữ liệu phụ thuộc?


9

Tôi có hầu hết các câu hỏi tương tự như thế này: Làm thế nào tôi có thể mô hình hiệu quả tổng các biến ngẫu nhiên Bernoulli?

Nhưng cài đặt khá khác nhau:

  1. P ( X i = 1 ) = p i N p iS=i=1,NXi , , ~ 20, ~ 0.1P(Xi=1)=piNpi

  2. Chúng tôi có dữ liệu về kết quả của các biến ngẫu nhiên Bernoulli: ,Xi,jSj=i=1,NXi,j

  3. Nếu chúng tôi ước tính với ước tính khả năng tối đa (và nhận ), thì hóa ra lớn hơn nhiều được mong đợi bởi các tiêu chí khác:ppiP { S = 3 } ( p M L E i ) P { S = 3 } ( p M L E i ) - P e x p đ c t đ d { S = 3 } 0.05p^iMLEP^{S=3}(p^iMLE)P^{S=3}(p^iMLE)P^expected{S=3}0.05

  4. Vì vậy, và không thể được coi là độc lập (chúng có sự phụ thuộc nhỏ).XiXj (j>k)

  5. Có một số ràng buộc như sau: và (đã biết), sẽ giúp ước tính .pi+1pis2P^{S=s}=AP{S}

Làm thế nào chúng ta có thể cố gắng mô hình tổng các biến ngẫu nhiên Bernoulli trong trường hợp này?

Những gì văn học có thể hữu ích để giải quyết nhiệm vụ?

CẬP NHẬT

Có một số ý tưởng khác:

(1) Có thể giả định rằng sự phụ thuộc không xác định giữa bắt đầu sau 1 hoặc nhiều thành công trong chuỗi. Vì vậy, khi , và .i = 1 , K X i >0 p K + 1 p K + 1 p K + 1 < p K + 1Xii=1,KXi>0pK+1pK+1pK+1<pK+1

(2) Để sử dụng MLE, chúng ta cần mô hình ít nghi vấn nhất. Đây là một biến thể:

i = 1 , k X i = 0 P { X 1 , . . . , X k , X k + 1 , . . . , X NP{X1,...,Xk}=(1p1)...(1pk) nếu cho mọi k nếu và và cho mọi k.i=1,kXi=0i = 1 , k - 1 X i = 0 X k = 1 P { X k + 1 = 1 , X k + 2 = 1 ,P{X1,...,Xk,Xk+1,...,XN}=(1p1)...pkP{Xk+1,...,XN}i=1,k1Xi=0Xk=1P{Xk+1=1,Xk+2=1,...,XN=1}pk+1pk+2...pN

(3) Vì chúng tôi chỉ quan tâm đến chúng tôi có thể đặt (xác suất thành công cho N- (k + 1) +1 triệu hồi từ đuôi). Và sử dụng tham sốP{S}Σ i = k + 1 , N X i P " { Σ i = k ,P{Xk+1,...,XN}P{i=1,kXi=s;N(k+1)+1=l}i=k+1,NXiP{i=k,NXi=s;Nk+1=l}=ps,l

(4) Sử dụng MLE cho mô hình dựa trên các tham số và với cho (và bất kỳ ) và một số ràng buộc riêng khác .p 0 , 1 , p 1 , 1 ; p 0 , 2 , p 1 , 2 , p 2 , 2 ; . . . p s ' , l = 0 s '6 lp1,...,pNp0,1,p1,1;p0,2,p1,2,p2,2;...ps,l=0s6l

Mọi thứ có ổn với kế hoạch này không?

CẬP NHẬT 2

Một số ví dụ về phân phối theo kinh nghiệm (màu đỏ) so với phân phối Poisson (màu xanh) (phương tiện poisson là 2,22 và 2,45, kích thước mẫu là 332 và 259):P{S}

mẫu1 mẫu2

Đối với các mẫu (A1, A2) với poisson có nghĩa là 2,28 và 2,51 (cỡ mẫu là 303 và 249):

mẫu3 mẫu4

Đối với samlpe A1 + A2 đã tham gia (cỡ mẫu là 552):

mẫu 3 + mẫu 4

Có vẻ như một số chỉnh sửa cho Poisson nên là mô hình tốt nhất :).


2
Là gì ? Xi,j
chl

1
@Andrey Các công thức trong (2) và ràng buộc thứ hai trong (4) không có ý nghĩa gì: những chiếc mũ có ý nghĩa gì trong (4)? là gì? (Bạn chỉ xác định , không phải ) Biểu thức trong (4) có phải là tổng của ba sản phẩm hay thứ gì khác không? S j SSSjS
whuber

Xi,j là kết quả ngẫu nhiên của Bernoulli (kết quả thứ i trong chuỗi thứ j), là kết quả thứ j của tổng (tổng của chuỗi). là biến ngẫu nhiên của tổng; mũ trong (4) có nghĩa là các ước tính. Vì vậy, có một số thông tin thêm về tổng các giá trị thấp nhất của . Xin lỗi vì sự nhầm lẫn. SjSS
Andrey

Câu trả lời:


3

Một cách tiếp cận sẽ là mô hình hóa các với mô hình tuyến tính tổng quát (GLM). Ở đây, bạn sẽ xây dựng , xác suất thành công trong thử nghiệm thứ là một hàm (tuyến tính logistic) của lịch sử quan sát gần đây. Vì vậy, về cơ bản, bạn đang lắp GLM tự động, trong đó tiếng ồn là Bernoulli và chức năng liên kết là logit. Các thiết lập là:Xpii

pi=f(b+a1Xi1+a2Xi2+akXik) , trong đó

f(x)=11+exp(x) , và

XiBernoulli(pi)

Các tham số của mô hình là , có thể được ước tính bằng hồi quy logistic. (Tất cả những gì bạn phải làm là thiết lập ma trận thiết kế của mình bằng cách sử dụng phần lịch sử quan sát có liên quan tại mỗi thử nghiệm và chuyển nó vào hàm ước lượng hồi quy logistic; Nếu kết quả thực sự độc lập thì 's sẽ được đặt thành 0; tích cực của có nghĩa là sự gia tăng của tiếp theo mỗi khi quan sát thấy thành công.một tôi một i p i{b,a1,ak}aiaipi

Mô hình không cung cấp biểu thức đơn giản cho xác suất so với tổng của , nhưng điều này dễ dàng tính toán bằng mô phỏng (lọc hạt hoặc MCMC) do mô hình có cấu trúc Markovian đơn giản.Xi

Loại mô hình này đã được sử dụng rất thành công để mô hình hóa sự phụ thuộc tạm thời giữa các "gai" của các nơ-ron trong não và có một tài liệu mở rộng về các mô hình quá trình điểm tự phát. Xem, ví dụ, Truccolo et al 2005 (mặc dù bài báo này sử dụng Poisson thay vì khả năng Bernoulli, nhưng việc ánh xạ từ cái này sang cái khác rất đơn giản).


1

Nếu sự phụ thuộc là do vón cục, một mô hình Poisson ghép có thể là giải pháp như một mô hình của . Một tài liệu tham khảo hơi ngẫu nhiên là tài liệu này của Barbour và Chryssaphinou.Sj

Theo một hướng hoàn toàn khác, vì bạn chỉ ra rằng là 20, và do đó tương đối nhỏ, có thể là để xây dựng một mô hình đồ họa của , nhưng tôi không biết liệu thiết lập và dữ liệu của bạn có khả thi hay không. Theo nhận xét của @chl, sẽ rất hữu ích nếu bạn mô tả là gì.X i j X i , jNXijXi,j

Nếu đại diện cho các phép đo liên tiếp, ví dụ theo thời gian và sự phụ thuộc có liên quan đến điều này, thì khả năng thứ ba - và một số mở rộng một sự thỏa hiệp giữa hai gợi ý ở trên - là sử dụng mô hình Markov ẩn của các . X i , jXi,jXi,j


X iXi,j là kết quả ngẫu nhiên của Bernoulli. Xin lỗi vì sự không chính xác. Vì vậy, là tổng số điểm của các đội thể thao trong các khoảng thời gian bằng nhau liên tiếp. Nó chỉ ra rằng sau khi mục tiêu đầu tiên được ghi, xác suất của mục tiêu tiếp theo trong khoảng sẽ khác nhau. Xi
Andrey
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.