Ở cấp độ nào là một thử nghiệm


15

ĐẶT VẤN ĐỀ: Bỏ qua một cách an toàn - nó ở đây để tham khảo và để hợp pháp hóa câu hỏi.

Phần mở đầu của bài viết này có nội dung:

"Thử nghiệm ngẫu nhiên chi-square nổi tiếng Karl Pearson được bắt nguồn từ số liệu thống kê khác, được gọi là số liệu thống kê z, dựa trên sự phân bố bình thường. Các phiên bản đơn giản nhất của χ2 có thể được chứng minh là toán học giống hệt nhau để kiểm tra z tương đương. Các thử nghiệm sản xuất cùng một kết quả trong mọi hoàn cảnh. đối với tất cả các tính năng “chi-squared” có thể được gọi là “z-squared”. các giá trị quan trọng của χ2 cho một mức độ tự do là bình phương của các giá trị quan trọng tương ứng của z ".

Điều này đã được khẳng định nhiều lần trong CV ( ở đây , ở đây , ở đây và những người khác).

Và thực sự chúng ta có thể chứng minh rằng χ1df2 tương đương vớiX2vớiXN(0,1):

Giả sử XN(0,1)Y=X2 và tìm mật độ của Y bằng cách sử dụng phương pháp cdf :

p(Yy)=p(X2y)=p(yxy). Vấn đề là chúng ta không thể tích hợp ở dạng mật độ của phân phối chuẩn. Nhưng chúng ta có thể diễn đạt nó:

FX(y)=FX(y)FX(y).
Lấy đạo hàm:

fX(y)=FX(y)12y+FX(y)12y.

Vì các giá trị của bình thường là đối xứng:pdf

. Tương đương này chopdfcủa bình thường (nay làxtrongpdfsẽfX(y)=FX(y)1ypdfxpdf được cắm vàoe - x 2y phần củapdfbình thường); và nhớ bao gồm1ex22pdf :1y

fX(y)=FX(y)1y=12πey21y=12πey2y121

So sánh với pdf của hình vuông chi:

fX(x)=12ν/2Γ(ν2)ex2xν21

Kể từ khi , trong1df, chúng ta đã suy ra chính xácpdfcủa hình vuông chi.Γ(1/2)=π1pdf

Hơn nữa, nếu chúng ta gọi hàm prop.test()trong R, chúng ta sẽ thực hiện phép thử giống như khi chúng ta quyết định .χ2chisq.test()

CÂU HỎI:

Vì vậy, tôi nhận được tất cả những điểm này, nhưng tôi vẫn không biết họ áp dụng như thế nào vào việc thực hiện hai thử nghiệm này vì hai lý do:

  1. Một bài kiểm tra z không bình phương.

  2. Thống kê kiểm tra thực tế là hoàn toàn khác nhau:

Giá trị của kiểm định thống kê cho một χ2 là:

trong đóχ2=i=1n(OiEi)2Ei=Ni=1npi(Oi/Npipi)2

= Thống kê kiểm tra tích lũy của Pearson, phương pháp này gần như tiếp cậnphân phối χ 2 . O i = số lượng quan sát loại i ; N = tổng số quan sát; E i = N p i = tần số (lý thuyết) dự kiến ​​của loại i , được khẳng định bởi giả thuyết null rằng phần của loại i trong dân số là p i ; n = số lượng ô trong bảng.χ2χ2OiiNEiNpiiipin

Mặt khác, thống kê kiểm tra cho -test là:z

vớip=x1Z=x1n1x2n2p(1p)(1/n1+1/n2) , trong đóx1x2là số "thành công", trên số lượng đối tượng trong mỗi một trong các cấp của các biến phân loại, tức làn1n2.p=x1+x2n1+n2x1x2n1n2

Công thức này dường như dựa vào phân phối nhị thức.

Hai bài kiểm tra thống kê rõ ràng là khác nhau, và dẫn đến kết quả khác nhau cho số liệu thống kê kiểm tra thực tế, cũng như đối với các p -values : 5.8481cho và cho z-kiểm tra, nơi 2,4183 2 = 5,84817 (cảm ơn bạn, @ mark999 ). Giá trị p cho phép thử χ 2 là , trong khi đối với phép thử z là . Sự khác biệt được giải thích bởi hai đuôi so với một đuôi: 0,01559 / 2 = 0,007795 (cảm ơn bạn @amoeba).χ22.41832.41832=5.84817χ20.015590.00770.01559/2=0.007795

Vậy ở cấp độ nào chúng ta nói rằng họ là một và giống nhau?


Nhưng đây là hai bài kiểm tra giống hệt nhau. Z bình phương là thống kê chi bình phương. Để bạn có bảng tần số 2x2 trong đó các cột là hai nhóm và các hàng là "thành công" và "thất bại". Sau đó, cái gọi là tần số dự kiến ​​của kiểm tra chi bình phương trong một cột nhất định là hồ sơ (nhóm) trung bình có trọng số (theo nhóm) nhân với nhân của nhóm đó. Do đó, chi bình phương kiểm tra độ lệch của mỗi một trong hai hồ sơ nhóm từ hồ sơ nhóm trung bình này - tương đương với việc kiểm tra sự khác biệt về hồ sơ của các nhóm với nhau, kiểm tra tỷ lệ z.
ttnphns

In the example on the last hyperlink the χ2 is almost the square of the z-test statistic, but not quite, and the p-values are different. Also, when you look at the formulas for the rest statistics above, is it truly immediate that they are identical? Or even one the square of the other?
Antoni Parellada

2
In chisq.test(), have you tried using correct=FALSE?
mark999

1
Indeed, Antoni. Both tests exist with or without the Yates. Could it be that you compute one with but the other without it?
ttnphns

1
Thank you! You were (predictably) correct. With the Yates correction off, one is just the square of the other. I edited the question accordingly, although a bit fast. I still would like to prove algebraically that both test statistics are the same (or one the square of the other), and understand why the p-values are different.
Antoni Parellada

Câu trả lời:


12

Let us have a 2x2 frequency table where columns are two groups of respondents and rows are the two responses "Yes" and "No". And we've turned the frequencies into the proportions within group, i.e. into the vertical profiles:

      Gr1   Gr2  Total
Yes   p1    p2     p
No    q1    q2     q
      --------------
     100%  100%   100%
      n1    n2     N

The usual (not Yates corrected) χ2 of this table, after you substitute proportions instead of frequencies in its formula, looks like this:

n1[(p1p)2p+(q1q)2q]+n2[(p2p)2p+(q2q)2q]=n1(p1p)2+n2(p2p)2pq.

Remember that p=n1p1+n2p2n1+n2, the element of the weighted average profile of the two profiles (p1,q1) and (p2,q2), and plug it in the formula, to obtain

...=(p1p2)2(n12n2+n1n22)pqN2

Divide both numerator and denominator by the (n12n2+n1n22) and get

(p1p2)2pq(1/n1+1/n2)=Z2,

the squared z-statistic of the z-test of proportions for "Yes" response.

Thus, the 2x2 homogeneity Chi-square statistic (and test) is equivalent to the z-test of two proportions. The so called expected frequencies computed in the chi-square test in a given column is the weighted (by the group n) average vertical profile (i.e. the profile of the "average group") multiplied by that group's n. Thus, it comes out that chi-square tests the deviation of each of the two groups profiles from this average group profile, - which is equivalent to testing the groups' profiles difference from each other, which is the z-test of proportions.

This is one demonstration of a link between a variables association measure (chi-square) and a group difference measure (z-test statistic). Attribute associations and group differences are (often) the two facets of the same thing.


(Showing the expansion in the first line above, By @Antoni's request):

n1[(p1p)2p+(q1q)2q]+n2[(p2p)2p+(q2q)2q]=n1(p1p)2qpq+n1(q1q)2ppq+n2(p2p)2qpq+n2(q2q)2ppq=n1(p1p)2(1p)+n1(1p11+p)2p+n2(p2p)2(1p)+n2(1p21+p)2ppq=n1(p1p)2(1p)+n1(pp1)2p+n2(p2p)2(1p)+n2(pp2)2ppq=[n1(p1p)2][(1p)+p]+[n2(p2p)2][(1p)+p]pq=n1(p1p)2+n2(p2p)2pq.


@ttnphs This is great! Any chance you could clarify the intermediate step in the first equation (χ2) formula - I don't see how the q's go away after the equal sign.
Antoni Parellada

@ttnphs When I expand it I get n1[(p1p)2p+(q1q)2q]+n2[(p2p)2p+(q2q)2q]=n1(q(p2+p(2p12q1+p12)+p(q2+q12)pq)+n2(q(p2+p(2p22q2)+p22)+p(q2+q22)pq)
Antoni Parellada

@ttnphs ... Or some reference so it's less work to type the latex... And I'll promptly and happily 'accept' the answer...
Antoni Parellada

@Antoni, expansion inserted.
ttnphns

@ttnphns Awesome!
Antoni Parellada
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.