Giải thích cho mức độ tự do không nguyên trong thử nghiệm t với phương sai không bằng nhau


15

Quy trình kiểm tra SPSS báo cáo 2 phân tích khi so sánh 2 phương tiện độc lập, một phân tích có phương sai bằng nhau được giả định và một phân tích có phương sai bằng nhau không được giả định. Độ tự do (df) khi các phương sai bằng nhau được giả định luôn là các giá trị nguyên (và bằng n-2). Df khi các phương sai bằng nhau không được giả sử là không nguyên (ví dụ: 11.467) và không ở đâu gần n-2. Tôi đang tìm kiếm một lời giải thích về logic và phương pháp được sử dụng để tính toán các df không nguyên này.


3
Một bài thuyết trình PowerPoint của Đại học Florida có một tài khoản tốt về cách tính gần đúng này với phân phối mẫu của thống kê Student t được lấy cho trường hợp phương sai không bằng nhau.
whuber

Là bài kiểm tra t của Welch luôn chính xác hơn? Có một nhược điểm nào khi sử dụng phương pháp của người xứ Wales không?
Joel W.

Nếu tiếng Wales và bài kiểm tra t ban đầu mang lại sự khác biệt đáng kể, tôi nên đi với ai? Điều gì sẽ xảy ra nếu giá trị p cho sự khác biệt về phương sai chỉ là 0,06, nhưng sự khác biệt về giá trị p của hai phép thử t là 0,000 và 0,125? (Điều này xảy ra khi một nhóm 2 không có phương sai và nhóm 25 khác có phương sai 70.000.)
Joel W.

2
Đừng chọn giữa chúng trên cơ sở giá trị . Trừ khi bạn có lý do chính đáng (trước cả khi bạn nhìn thấy dữ liệu) để giả sử phương sai bằng nhau, đơn giản là đừng đưa ra giả định đó. p
Glen_b -Reinstate Monica

1
Tất cả các câu hỏi liên quan đến thời điểm sử dụng bài kiểm tra tiếng Wales. Câu hỏi này đã được đăng tại stats.stackexchange.com/questions/116610/ Khăn
Joel W.

Câu trả lời:


11

Welch-Satterthwaite df có thể được hiển thị là một trung bình hài hòa có trọng số của hai bậc tự do, với trọng số tỷ lệ với độ lệch chuẩn tương ứng.

Biểu thức ban đầu đọc:

νW=(s12n1+s22n2)2s14n12ν1+s24n22ν2

Lưu ý rằng là phương sai ước tính của giá trị trung bình mẫu thứ i hoặc bình phương của sai số chuẩn thứ i của giá trị trung bình . Đặt r = r 1 / r 2 (tỷ lệ phương sai ước tính của phương tiện mẫu), vì vậyri=si2/niithir=r1/r2

νW=(r1+r2)2r12ν1+r22ν2=(r1+r2)2r12+r22r12+r22r12ν1+r22ν2=(r+1)2r2+1r12+r22r12ν1+r22ν2

Yếu tố đầu tiên là , mà tăng từ 1 tại r = 0 đến 2 tại r = 1 và sau đó giảm xuống 1 tại r = ; nó đối xứng trong log r .1+sech(log(r))1r=02r=11r=logr

Yếu tố thứ hai là một ý nghĩa hài hòa có trọng số :

H(x_)=i=1nwii=1nwixi.

wi=ri2

r1/r2ν1r1/r20ν2r1=r2s12=s22 you get the usual equal-variance t-test d.f., which is also the maximum possible value for νW.

--

With an equal-variance t-test, if the assumptions hold, the square of the denominator is a constant times a chi-square random variate.

The square of the denominator of the Welch t-test isn't (a constant times) a chi-square; however, it's often not too bad an approximation. A relevant discussion can be found here.

A more textbook-style derivation can be found here.


1
Great insight about the harmonic mean, which is more appropriate than arithmetic mean for averaging ratios.
Felipe G. Nievinski

10

What you are referring to is the Welch-Satterthwaite correction to the degrees of freedom. The t-test when the WS correction is applied is often called Welch's t-test. (Incidentally, this has nothing to do with SPSS, all statistical software will be able to conduct Welch's t-test, they just don't usually report both side by side by default, so you wouldn't necessarily be prompted to think about the issue.) The equation for the correction is very ugly, but can be seen on the Wikipedia page; unless you are very math savvy or a glutton for punishment, I don't recommend trying to work through it to understand the idea. From a loose conceptual standpoint however, the idea is relatively straightforward: the regular t-test assumes the variances are equal in the two groups. If they're not, then the test should not benefit from that assumption. Since the power of the t-test can be seen as a function of the residual degrees of freedom, one way to adjust for this is to 'shrink' the df somewhat. The appropriate df must be somewhere between the full df and the df of the smaller group. (As @Glen_b notes below, it depends on the relative sizes of s12/n1 vs s22/n2; if the larger n is associated with a sufficiently smaller variance, the combined df can be lower than the larger of the two df.) The WS correction finds the right proportion of way from the former to the latter to adjust the df. Then the test statistic is assessed against a t-distribution with that df.


For one t-test, SPSS reports the df as 26.608 but the n's for the two groups are 22 and 104. Are you sure about " The appropriate df must be somewhere between the full df and the df of the larger group"? (The standard deviations are 10.5 and 8.1 for the smaller and larger groups, respectively.)
Joel W.

2
It depends on the relative sizes of s12/n1 vs s22/n2. If the larger n is associated with a sufficiently larger variance, the combined d.f. can be lower than the larger of the two d.f. Note that the Welch t-test is only approximate, since the squared denominator is not actually a (scaled) chi-square random variate. However in practice it does quite well.
Glen_b -Reinstate Monica

I think I'll expand on the relationship between the relative sizes of the (si2/ni) and the Welch d.f. in an answer (since it won't fit in a comment).
Glen_b -Reinstate Monica

1
@Glen_b, I'm sure that will be of great value here.
gung - Reinstate Monica
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.