Khi n tăng giá trị t tăng trong kiểm tra giả thuyết, nhưng bảng t thì ngược lại. Tại sao?


8

Công thức cho trong một bài kiểm tra giả thuyết được đưa ra bởi: t

t=X¯μσ^/n.

Khi tăng, giá trị tăng theo công thức trên. Nhưng tại sao giá trị quan trọng lại giảm trong -table khi (là hàm của ) tăng?ntttdfn

Câu trả lời:


9

Đây là hai hiện tượng khác nhau:

  1. t -statistic

    Giữ tất cả các giá trị khác không đổi, nếu tăng giá trị phải tăng như một vấn đề đơn giản của số học. Hãy xem xét phân số trong mẫu số, , nếu lớn hơn, thì cũng sẽ lớn hơn (mặc dù chậm hơn), vì căn bậc hai là một phép biến đổi đơn điệu. Vì căn bậc hai của là mẫu số của phân số đó, vì nó lớn hơn, nên phân số sẽ nhỏ hơn. Tuy nhiên, phần này là một mẫu số. Kết quả là, mẫu số đó càng nhỏ, phần thứ hai càng lớn. Do đó, giá trị sẽ lớn hơn khi lớn hơn. (Giả sử, một lần nữa, rằngNtσ^/nnnntnσ^ và vẫn giữ nguyên.) (x¯μnull)

    Điều này có nghĩa là gì về khái niệm? Chà, càng có nhiều dữ liệu / kích thước mẫu càng gần với kích thước dân số, thì trung bình mẫu sẽ càng ít thay đổi so với trung bình dân số do lỗi lấy mẫu (xem, luật số lượng lớn ). Với một dân số nhỏ, hữu hạn, điều này dễ thấy, nhưng mặc dù nó có thể không trực quan, điều tương tự cũng đúng nếu dân số là vô hạn. Vì giá trị trung bình của mẫu (x¯) không nên dao động rất xa so với giá trị tham chiếu (null), chúng ta có thể tin tưởng hơn rằng khoảng cách quan sát được của giá trị trung bình từ giá trị null là vì giá trị null không thực sự là giá trị trung bình của dân số mà mẫu được rút ra . Chính xác hơn, ngày càng ít có khả năng tìm thấy một mẫu có nghĩa là cách xa hoặc xa hơn giá trị null, nếu giá trị null thực sự là giá trị trung bình của dân số mà mẫu được rút ra.

  2. tphân phối

    Khi bạn nhìn vào một -table (giả sử, ở mặt sau của một cuốn sách thống kê), những gì bạn đang thực sự nhìn vào là một bảng các giá trị quan trọng . Đó là, giá trị mà thống kê quan sát được phải lớn hơn để thử nghiệm có giá trị 'đáng kể' ở mức alpha đó. (Thông thường, chúng được liệt kê cho một số lượng nhỏ các chữ cái có thể: .) Tôi nghi ngờ nếu bạn nhìn kỹ vào các bảng như vậy, chúng thực sự là suy nghĩ về mức độ tự do liên quan đếnttα={.10, .05, .01, .001}t thống kê trong câu hỏi. Lưu ý rằng mức độ tự do cho -statistic là một hàm của n , là d ftn cho hai nhóm t -test hoặc d f = n - 1 cho một nhóm t -test (ví dụ của bạn dường như là nhóm sau). Điều này có liên quan đến thực tế là sựphân phốisẽ hội tụ thành một phân phối chuẩn thông thường khi mức độ tự do tiến đến vô cùng. df=n2tdf=n1tt

    Cách để hiểu khái niệm này là suy nghĩ về lý do tại sao bạn cần sử dụng phân phối ở vị trí đầu tiên. Bạn biết giá trị trung bình tham chiếu là gì mà bạn quan tâm và mẫu có nghĩa là bạn quan sát. Nếu dân số mà các mẫu được rút ra được phân phối bình thường (mà mọi người thường mặc nhiên giả định), thì chúng ta biết rằng phân phối mẫu của giá trị trung bình cũng sẽ được phân phối bình thường. Vậy tại sao phải bận tâm với phân phối ? Câu trả lời là không chắc chắn độ lệch chuẩn của dân số là gì. (Nếu chúng tôi chắc chắn, chúng tôi thực sự sẽ sử dụng phân phối bình thường, tức làttz-test instead of the t-test.) So we use our sample standard deviation, σ^, as a proxy for the unknown population value. However, the more data we have, the more sure we can be that σ^ is in fact approximately the right value. As n approaches the population size (and/or infinity), we can be sure that σ^ in fact is exactly the right value. Thus, the t-distribution becomes the normal distribution.


That is a great long answer. Why not move it from comments to be the answer?
Harvey Motulsky

Thanks, @HarveyMotulsky. What do you mean by the latter sentence? It is posted as an answer, not a comment.
gung - Reinstate Monica

Either something changed in the last minute, or I saw it wrong. It is a great answer, and posted as such.
Harvey Motulsky

Does this mean that the n we have used in the t-value formula has nothing to do with the formula that is used to generate the critical t-values? What I am confused is with as the df (which is a function of n) increases in t table, the critical t-values decreases whereas it is not the case in t-value from the formula in the original question. Although we see the same n in both places (table and formula), however, they act differently.
leviathan

1
(Incidentally, I believe my answer is addressed to your question as edited. Let me know if there's sill some lack of clarity.)
gung - Reinstate Monica

4

Well, the short answer is that's what falls out of the math. The long answer would be to do the math3. Instead I'll try to rephrase gung's explanation that these are two different (though related) things.

You've collected a sample X1...Xn that is normally distributed with unknown variance4 and want to know if its average is different from some specified value μ. The way you do this is to compute a value that represents how "different" your observations are from the assumption that x¯=μ. Thus the formula for the t-statistic1 you presented. Probably the most intuitive way of thinking about why this increases with n is that you have more "confidence" that things are different when you have more samples.

Moving on, this value follows a t-distribution2 with n1 degrees of freedom. The way to think about this is that the t-distribution is slightly different depending on your sample size. You can see plots of this distribution with 2, 3, 5, and 20 df below. t-distribution, df=2,3,5,20 You'll notice that higher df has more mass in the center and less in the tails of the distribution (I have no intuitive reasoning for why the distributions behave this way, sorry). The critical t-value is the x-location where the area under the curve equals a somewhat arbitrary value of your choosing (traditionally 0.05). These values are marked on the graph as points. So for the green curve (df=5), the area under the curve to the left of the left green dot = 0.025, and the area under the curve to the right of the right green dot = 0.025, for a total of 0.05.

This is why the critical t-values decrease with increasing degrees of freedom - as df increases, the critical values must get closer to zero to keep the same area under the curve. And as gung mentioned, as df goes to , the curve and critical values will approach that of a standard normal distribution.

So now you have your critical value and your t-statistic, and can perform the t-test. If your t-statistic is greater than the critical value, you then can make the statement that if x¯=μ really was true, then you would have observed your sample less than 5% (or whatever arbitrary percentage you chose to calculate the critical value for) of the time.


1 Why do we calculate this particular value out of the many arbitrary values we could calculate? Well, this is what falls out of a calculation of a likelihood ratio test3.
If you knew the variance of the samples beforehand, the z-statistic (following a normal distribution) mentioned by gung would fall out of this calculation instead, and you would perform a z-test
2 Again, this is what falls out of the math3
3 First good result from google: http://math.arizona.edu/~jwatkins/ttest.pdf
4 It turns out the t-test works even if that assumption is not met, but that's a digression

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.