Câu trả lời:
Đây là hai hiện tượng khác nhau:
-statistic
Giữ tất cả các giá trị khác không đổi, nếu tăng giá trị phải tăng như một vấn đề đơn giản của số học. Hãy xem xét phân số trong mẫu số, , nếu lớn hơn, thì cũng sẽ lớn hơn (mặc dù chậm hơn), vì căn bậc hai là một phép biến đổi đơn điệu. Vì căn bậc hai của là mẫu số của phân số đó, vì nó lớn hơn, nên phân số sẽ nhỏ hơn. Tuy nhiên, phần này là một mẫu số. Kết quả là, mẫu số đó càng nhỏ, phần thứ hai càng lớn. Do đó, giá trị sẽ lớn hơn khi lớn hơn. (Giả sử, một lần nữa, rằng và vẫn giữ nguyên.)
Điều này có nghĩa là gì về khái niệm? Chà, càng có nhiều dữ liệu / kích thước mẫu càng gần với kích thước dân số, thì trung bình mẫu sẽ càng ít thay đổi so với trung bình dân số do lỗi lấy mẫu (xem, luật số lượng lớn ). Với một dân số nhỏ, hữu hạn, điều này dễ thấy, nhưng mặc dù nó có thể không trực quan, điều tương tự cũng đúng nếu dân số là vô hạn. Vì giá trị trung bình của mẫu () không nên dao động rất xa so với giá trị tham chiếu (null), chúng ta có thể tin tưởng hơn rằng khoảng cách quan sát được của giá trị trung bình từ giá trị null là vì giá trị null không thực sự là giá trị trung bình của dân số mà mẫu được rút ra . Chính xác hơn, ngày càng ít có khả năng tìm thấy một mẫu có nghĩa là cách xa hoặc xa hơn giá trị null, nếu giá trị null thực sự là giá trị trung bình của dân số mà mẫu được rút ra.
phân phối
Khi bạn nhìn vào một -table (giả sử, ở mặt sau của một cuốn sách thống kê), những gì bạn đang thực sự nhìn vào là một bảng các giá trị quan trọng . Đó là, giá trị mà thống kê quan sát được phải lớn hơn để thử nghiệm có giá trị 'đáng kể' ở mức alpha đó. (Thông thường, chúng được liệt kê cho một số lượng nhỏ các chữ cái có thể: .) Tôi nghi ngờ nếu bạn nhìn kỹ vào các bảng như vậy, chúng thực sự là suy nghĩ về mức độ tự do liên quan đến thống kê trong câu hỏi. Lưu ý rằng mức độ tự do cho -statistic là một hàm của n , là d f cho hai nhóm t -test hoặc d f = n - 1 cho một nhóm t -test (ví dụ của bạn dường như là nhóm sau). Điều này có liên quan đến thực tế là sựphân phốisẽ hội tụ thành một phân phối chuẩn thông thường khi mức độ tự do tiến đến vô cùng.
Cách để hiểu khái niệm này là suy nghĩ về lý do tại sao bạn cần sử dụng phân phối ở vị trí đầu tiên. Bạn biết giá trị trung bình tham chiếu là gì mà bạn quan tâm và mẫu có nghĩa là bạn quan sát. Nếu dân số mà các mẫu được rút ra được phân phối bình thường (mà mọi người thường mặc nhiên giả định), thì chúng ta biết rằng phân phối mẫu của giá trị trung bình cũng sẽ được phân phối bình thường. Vậy tại sao phải bận tâm với phân phối ? Câu trả lời là không chắc chắn độ lệch chuẩn của dân số là gì. (Nếu chúng tôi chắc chắn, chúng tôi thực sự sẽ sử dụng phân phối bình thường, tức là-test instead of the -test.) So we use our sample standard deviation, , as a proxy for the unknown population value. However, the more data we have, the more sure we can be that is in fact approximately the right value. As approaches the population size (and/or infinity), we can be sure that in fact is exactly the right value. Thus, the -distribution becomes the normal distribution.
Well, the short answer is that's what falls out of the math. The long answer would be to do the math. Instead I'll try to rephrase gung's explanation that these are two different (though related) things.
You've collected a sample that is normally distributed with unknown variance and want to know if its average is different from some specified value . The way you do this is to compute a value that represents how "different" your observations are from the assumption that . Thus the formula for the -statistic you presented. Probably the most intuitive way of thinking about why this increases with is that you have more "confidence" that things are different when you have more samples.
Moving on, this value follows a -distribution with degrees of freedom. The way to think about this is that the -distribution is slightly different depending on your sample size. You can see plots of this distribution with 2, 3, 5, and 20 df below. You'll notice that higher df has more mass in the center and less in the tails of the distribution (I have no intuitive reasoning for why the distributions behave this way, sorry). The critical -value is the x-location where the area under the curve equals a somewhat arbitrary value of your choosing (traditionally 0.05). These values are marked on the graph as points. So for the green curve (df=5), the area under the curve to the left of the left green dot = 0.025, and the area under the curve to the right of the right green dot = 0.025, for a total of 0.05.
This is why the critical -values decrease with increasing degrees of freedom - as df increases, the critical values must get closer to zero to keep the same area under the curve. And as gung mentioned, as df goes to , the curve and critical values will approach that of a standard normal distribution.
So now you have your critical value and your -statistic, and can perform the -test. If your -statistic is greater than the critical value, you then can make the statement that if really was true, then you would have observed your sample less than 5% (or whatever arbitrary percentage you chose to calculate the critical value for) of the time.
Why do we calculate this particular value out of the many arbitrary values we could calculate? Well, this is what falls out of a calculation of a likelihood ratio test.
If you knew the variance of the samples beforehand, the -statistic (following a normal distribution) mentioned by gung would fall out of this calculation instead, and you would perform a -test
Again, this is what falls out of the math
First good result from google: http://math.arizona.edu/~jwatkins/ttest.pdf
It turns out the t-test works even if that assumption is not met, but that's a digression