Ước tính xác suất trong quy trình Bernoulli bằng cách lấy mẫu cho đến khi 10 lần thất bại: nó có bị sai lệch không?


15

Giả sử chúng ta có một quá trình Bernoulli với xác suất thất bại q (sẽ nhỏ, giả sử, q0.01 ) từ đó chúng ta lấy mẫu cho đến khi chúng ta gặp phải 10 lần thất bại. Chúng tôi do đó ước tính xác suất thất bại như q : = 10 / N nơi N là số lượng mẫu.q^:=10/NN

Câu hỏi : Liệu q một ước tính thiên vị của q ? Và, nếu vậy, có cách nào để sửa nó không?q^q

Tôi lo ngại rằng việc khẳng định mẫu cuối cùng là sai lệch dự toán.


5
Các câu trả lời hiện tại dừng việc cung cấp công cụ ước lượng không thiên vị tối thiểu (101)/(N1) . Xem phần lấy mẫu và ước tính điểm của bài viết Wikipedia về phân phối nhị thức âm .
A. Webb

Câu trả lời:


10

Đúng là q là một ước tính thiên vị của q theo nghĩa là E ( q ) q , nhưng bạn nên không nhất thiết phải để điều này ngăn cản bạn. Kịch bản chính xác này có thể được sử dụng như một lời chỉ trích chống lại ý tưởng rằng chúng ta nên luôn luôn sử dụng các công cụ ước tính không thiên vị, bởi vì ở đây sự thiên vị là một sự giả tạo của thí nghiệm cụ thể mà chúng ta đang thực hiện. Dữ liệu trông chính xác như chúng sẽ làm nếu chúng ta đã chọn số lượng mẫu trước, vậy tại sao suy luận của chúng ta phải thay đổi?q^qE(q^)q

Thật thú vị, nếu bạn thu thập dữ liệu theo cách này và sau đó viết hàm khả năng theo cả hai mô hình nhị thức (cỡ mẫu cố định) và mô hình nhị thức âm, bạn sẽ thấy rằng hai tỷ lệ này với nhau. Điều này có nghĩa rằng q chỉ là bình thường ước tính tối đa khả năng theo mô hình nhị thức tiêu cực, trong đó tất nhiên là một ước tính hoàn toàn hợp lý.q^


Tuyệt quá! Có vẻ như (vì mục đích của tôi) sự thiên vị này không phải là một vấn đề.
becky

9

Không khẳng định rằng mẫu cuối cùng là một thất bại làm sai lệch ước tính, nó đang lấy đối ứng của N

Vậy trong ví dụ của bạn nhưng E[10E[N10]=1q. Điều này gần với việc so sánh trung bình số học với trung bình hàiE[10N]q

Tin xấu là độ lệch có thể tăng khi nhỏ hơn, mặc dù không nhiều khi q đã nhỏ. Tin tốt là sự thiên vị giảm khi số lượng thất bại cần thiết tăng lên. Có vẻ như nếu bạn yêu cầu thất bại f , thì độ lệch được giới hạn ở trên bởi một hệ số nhân của fqqf choqnhỏ; bạn không muốn cách tiếp cận này khi bạn dừng lại sau thất bại đầu tiên ff1q

Dừng lại sau lần thất bại, với q = 0,01 bạn sẽ nhận được E [ N10q=0.01nhưng E[10E[N10]=100, trong khi vớiq=0,001bạn sẽ nhận đượcE[NE[10N]0.011097q=0.001nhưng E[10E[N10]=1000. Độ lệch khoảng10E[10N]0.001111 nhân tử 109


7

Là một bổ sung cho câu trả lời dsaxton của, đây là một số mô phỏng trong R cho thấy sự phân bố lấy mẫu của q khi k = 10q 0 = 0.02 :q^k=10q0=0.02

n_replications <- 10000
k <- 10
failure_prob <- 0.02
n_trials <- k + rnbinom(n_replications, size=k, prob=failure_prob)
all(n_trials >= k)  # Sanity check, cannot have 10 failures in < 10 trials

estimated_failure_probability <- k / n_trials
histogram_breaks <- seq(0, max(estimated_failure_probability) + 0.001, 0.001)
## png("estimated_failure_probability.png")
hist(estimated_failure_probability, breaks=histogram_breaks)
abline(v=failure_prob, col="red", lty=2, lwd=2)  # True failure probability in red
## dev.off()

mean(estimated_failure_probability)  # Around 0.022
sd(estimated_failure_probability)
t.test(x=estimated_failure_probability, mu=failure_prob)  # Interval around [0.0220, 0.0223]

Dường như , mà là một xu hướng khá nhỏ so với sự thay đổi trong q .E[q^]0.022q^

biểu đồ của q_hat


1
Điều đó thực sự hữu ích. Ở cấp độ đó, nó không đáng để tôi lo lắng.
becky

2
Bạn có thể viết mô phỏng này chính xác hơn như10+rnbinom(10000,10,0.02)
A. Webb

@ A.Webb cảm ơn bạn, đó là một điểm tốt. Tôi thực sự đã phát minh lại bánh xe. Tôi cần đọc? Rnbinom và sau đó tôi sẽ chỉnh sửa bài đăng của mình
Adrian

1
Đó sẽ là 10/(10+rnbinom(10000,10,0.02)). Việc tham số hóa là về số lượng thành công / thất bại thay vì tổng số thử nghiệm, vì vậy bạn sẽ phải thêm k = 10 trở lại. Lưu ý rằng công cụ ước lượng không thiên vị sẽ là 9/(9+rnbinom(10000,10,0.02)), một ít hơn trong tử số và mẫu số.
A. Webb
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.