Lý do trực quan tại sao Thông tin Fisher của Binomial tỷ lệ nghịch với


12

Nó nhầm lẫn / thổi vào tâm trí của tôi rằng Binomial có phương sai tỷ lệ thuận với p(1p) . Tương tự, thông tin Fisher tỷ lệ với 1p(1p) . Lý do cho điều này là gì? Tại sao Thông tin Fisher được thu nhỏ ở mứcp=0.5? Đó là, tại sao suy luận khó nhất vớip=0.5?

Bối cảnh:

Tôi đang làm việc trên một máy tính kích thước mẫu và công thức cho N , kích thước mẫu cần thiết, là hệ số tăng của p(1p) , kết quả của ước lượng phương sai trong đạo hàm.


3
Phương sai của biến ngẫu nhiên Bernoulli với tham số p ( 1 - p ) và biến ngẫu nhiên nhị thức, là tổng của N biến ngẫu nhiên Bernoulli độc lập, có phương sai N p ( 1 - p ) , là tổng của N phương sai. Liên quan đến lý do tại sao p ( 1 - p ) , coi phương sai là mômen quán tính về tâm khối lượng p1 - p tại 1pp(1p)NNp(1p)N p(1p)p1p1 tương ứng. 0
Dilip Sarwate

Vâng, tôi đã nói tỉ lệ với , bỏ qua N . Bạn có thể giải thích về phần thứ hai của bạn, nó có vẻ như là một viễn cảnh thú vị. p(1p)N
Cam.Davidson.Pilon

Câu trả lời:


13

Để thấy, theo một cách trực quan, phương sai được tối đa hóa ở , lấy p bằng 0,99 (tương ứng p = 0,01 ). Sau đó, một mẫu từ X Bernoulli ( p ) có thể sẽ chứa nhiều 1 (s. 0 's) và chỉ một vài 0 (s. 1 ' s). Không có nhiều biến thể ở đó.p=0.5p0.99p=0.01XBernoulli(p)1001


Đúng. Có lẽ điều tôi nên hỏi là Tại sao Thông tin Fisher được thu nhỏ ở mức ? p=0.5, tức là tại sao suy luận khó nhất ở ? Tôi sẽ cập nhật câu hỏi của tôi để phản ánh điều đó. p=0.5
Cam.Davidson.Pilon 30/12/13

3
Một lần nữa theo một cách rất trực quan: càng nhiều biến thể, bạn càng cần nhiều thông tin.
ocram

9

Các suy luận là "cứng" cho 'ở giữa, bởi vì một mẫu với p gần giữa là phù hợp với một phạm vi rộng lớn hơn của p . Gần cuối, nó không thể ở quá xa - vì kết thúc là "rào cản" vượt quá mức mà p không thể đi.pp^pp

Tôi nghĩ rằng trực giác dễ dàng hơn khi nhìn vào các phương sai, mặc dù.

Trực giác về phương sai của một nhị thức lớn ở giữa và nhỏ ở hai đầu khá đơn giản: gần các điểm cuối không có chỗ cho dữ liệu "lan ra". Xem xét nhỏ - vì giá trị trung bình gần bằng 0, biến thể không thể lớn - đối với dữ liệu ở mức trung bình p, nó chỉ có thể nhận được rất xa so với giá trị trung bình.pp

Chúng ta hãy xem xét phương sai của một tỷ lệ mẫu trong một loạt các thử nghiệm Bernoulli. Dưới đây . Vì vậy, giữ n cố định và thay đổi p , biến thể nhỏ hơn nhiều đối với p gần 0:Var(p^)=p(1p)/nnpp

Tỷ lệ mẫu trong các mẫu nhị thức - ở đây chỉ là thống nhất ngẫu nhiên; trường hợp màu xanh có nghĩa là 0,03, màu đen có nghĩa là 0,5 (một số jitter được thêm vào để các điểm không chồng chất quá nhiều và mất chi tiết) yenter image description here

Các hàm xác suất tương ứng: enter image description here

Trong mỗi trường hợp chú ý đến các dòng đánh dấu trung bình. Khi đường trung bình trở nên 'kẹt' hơn so với rào cản, các điểm bên dưới giá trị trung bình chỉ có thể có được một cách nhỏ bên dưới.

p=12

enter image description here

p^p

[Hình thức trực giác này không cho chúng ta biết lý do tại sao nó có dạng chức năng chính xác đó, nhưng nó làm rõ lý do tại sao phương sai phải nhỏ ở gần đầu và càng nhỏ càng gần đầu bạn đi.]


Do đó, các điểm trên giá trị trung bình thường không thể vượt quá mức trung bình (vì nếu không giá trị trung bình sẽ thay đổi!). Gần p = 12, các điểm cuối không thực sự "đẩy nó lên" theo cùng một cách. Qua hoan hảo. Đây là một lời giải thích tuyệt vời.
Cam.Davidson.Pilon

7

Thông tin Fisher là phương sai của hàm điểm. Và nó có liên quan đến entropy. Đối với một thử nghiệm Bernoulli, chúng tôi sẽ nhận được một bit cho mỗi thử nghiệm. Vì vậy, Thông tin Fisher này có các thuộc tính tương tự như Entropy Shannon, như chúng ta mong đợi. Cụ thể, entropy có tối đa là 1/2 và thông tin có tối thiểu là 1/2.


Ah, một viễn cảnh tuyệt vời khác. Tôi đã không nghĩ về điều này từ quan điểm entropic!
Cam.Davidson.Pilon
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.