Kiểm tra phương sai hữu hạn?


29

Có thể kiểm tra độ chính xác (hoặc sự tồn tại) của phương sai của một biến ngẫu nhiên được đưa ra một mẫu không? Là một null, {phương sai tồn tại và là hữu hạn} hoặc {phương sai không tồn tại / là vô hạn} sẽ được chấp nhận. Về mặt triết học (và tính toán), điều này có vẻ rất lạ bởi vì sẽ không có sự khác biệt giữa một dân số không có phương sai hữu hạn và một người có phương sai rất lớn (giả sử> ), vì vậy tôi không hy vọng vấn đề này có thể xảy ra giải quyết.10400

Một cách tiếp cận đã được đề xuất với tôi là thông qua Định lý giới hạn trung tâm: giả sử các mẫu là iid và dân số có nghĩa là hữu hạn, bằng cách nào đó, người ta có thể kiểm tra xem bằng cách nào đó, liệu trung bình mẫu có sai tiêu chuẩn đúng với việc tăng kích thước mẫu hay không. Tôi không chắc chắn tôi tin rằng phương pháp này sẽ làm việc, mặc dù. (Đặc biệt, tôi không thấy cách biến nó thành một bài kiểm tra phù hợp.)


1
Có liên quan: stats.stackexchange.com/questions/94402/ nếu Nếu có khả năng nhỏ nhất thì phương sai không tồn tại, tốt hơn hết bạn nên sử dụng một mô hình không giả định phương sai hữu hạn. Thậm chí không nghĩ về việc thử nghiệm nó.
kjetil b halvorsen

Câu trả lời:


13

Không, điều này là không thể, bởi vì một mẫu hữu hạn có kích thước không thể phân biệt một cách đáng tin cậy, giả sử, một dân số bình thường và một dân số bình thường bị ô nhiễm bởi một lượng phân phối 1 / N trong đó N >> n . (Tất nhiên cái trước có phương sai hữu hạn và cái sau có phương sai vô hạn.) Vì vậy, bất kỳ bài kiểm tra không tham số hoàn toàn nào cũng sẽ có công suất thấp tùy ý chống lại các lựa chọn thay thế như vậy.n1/NNn


4
Đây là một điểm rất tốt. tuy nhiên, không phải hầu hết các bài kiểm tra giả thuyết có sức mạnh thấp tùy ý chống lại một số thay thế? ví dụ: kiểm tra giá trị trung bình bằng 0 sẽ có công suất rất thấp khi được lấy mẫu từ dân số có giá trị trung bình cho 0 < | ϵ | nhỏ bé. Tôi vẫn còn băn khoăn liệu một thử nghiệm như vậy có thể được xây dựng hoàn toàn hay không, ít hơn nhiều cho dù nó có công suất thấp trong một số trường hợp. ϵ0<|ϵ|
shabbychef

2
cũng vậy, các bản phân phối 'bị ô nhiễm' như bản phân phối mà bạn trích dẫn dường như luôn mâu thuẫn với ý tưởng được 'phân phối giống hệt'. Có lẽ bạn sẽ đồng ý. Có vẻ như việc nói các mẫu được rút iid từ một số phân phối mà không nêu rõ phân phối là vô nghĩa (tốt, phần 'độc lập' của iid là có ý nghĩa).
shabbychef

2
(1) Bạn nói đúng về năng lượng thấp, nhưng vấn đề ở đây (dường như đối với tôi) là không có bước dần dần từ "hữu hạn" đến "vô hạn": vấn đề dường như không có quy mô tự nhiên để nói với chúng ta cái gì tạo thành một sự khởi hành "nhỏ" từ null so với một sự khởi hành "lớn". (2) Hình thức phân phối độc lập với các cân nhắc của iid. Tôi không có nghĩa là, giả sử, 1% dữ liệu sẽ đến từ Cauchy và 99% từ Bình thường. Ý tôi là 100% dữ liệu đến từ một bản phân phối gần như bình thường nhưng có đuôi Cauchy. Theo nghĩa này, dữ liệu có thể được iid cho một phân phối bị ô nhiễm.
whuber


3
@shabbychef nếu mọi quan sát phát sinh từ quá trình hỗn hợp chính xác giống nhau, chúng được phân phối giống hệt nhau, mỗi lần rút ra từ phân phối hỗn hợp tương ứng. Nếu một số quan sát nhất thiết phải từ một quy trình và các quan sát khác nhất thiết phải từ một quy trình khác (các quan sát 1 đến 990 là bình thường và các quan sát 991 đến 1000 là Cauchy, thì chúng không được phân phối chính xác (mặc dù mẫu kết hợp có thể không phân biệt được từ hỗn hợp 99% -1%). Điều này về cơ bản đi vào mô hình của quá trình bạn đang sử dụng.
Glen_b -Reinstate Monica

16

Bạn không thể chắc chắn mà không biết phân phối. Nhưng có một số điều bạn có thể làm, chẳng hạn như xem xét cái có thể gọi là "phương sai một phần", tức là nếu bạn có một mẫu có kích thước , bạn vẽ phương sai ước tính từ n thuật ngữ đầu tiên , với n chạy từ 2 đến N .NnnN

Với phương sai dân số hữu hạn, bạn hy vọng rằng phương sai một phần sẽ sớm ổn định gần với phương sai dân số.

Với phương sai dân số vô hạn, bạn sẽ thấy sự tăng vọt của phương sai một phần theo sau là sự suy giảm chậm cho đến khi giá trị rất lớn tiếp theo xuất hiện trong mẫu.

Đây là một minh họa với các biến ngẫu nhiên Bình thường và Cauchy (và thang đo log) Phương sai một phần

Điều này có thể không hữu ích nếu hình dạng phân phối của bạn sao cho kích thước mẫu lớn hơn nhiều so với mức bạn cần để xác định nó với độ tin cậy đủ, nghĩa là trong đó các giá trị rất lớn khá hiếm (nhưng không cực kỳ) đối với phân phối có phương sai hữu hạn, hoặc là cực kỳ hiếm đối với một phân phối với phương sai vô hạn. Đối với một phân phối nhất định, sẽ có các cỡ mẫu có nhiều khả năng hơn là không tiết lộ bản chất của nó; ngược lại, đối với một cỡ mẫu nhất định, có những phân phối có nhiều khả năng hơn là không ngụy trang bản chất của chúng cho kích thước mẫu đó.


4
+1 Tôi thích điều này bởi vì (a) một đồ họa thường tiết lộ nhiều hơn một bài kiểm tra và (b) nó là thực tế. Tôi hơi lo ngại rằng nó có một khía cạnh tùy ý: sự xuất hiện của nó sẽ phụ thuộc (mạnh mẽ, có lẽ) vào thứ tự mà dữ liệu được đưa ra. Khi "phương sai một phần" là do một hoặc hai giá trị cực đoan và chúng đến gần đầu, đồ họa này có thể bị đánh lừa. Tôi tự hỏi liệu có một giải pháp tốt cho vấn đề này.
whuber

1
+1 cho đồ họa tuyệt vời. Thực sự củng cố khái niệm "không có phương sai" trong phân phối Cauchy. @whuber: Sắp xếp dữ liệu theo tất cả các hoán vị có thể, chạy thử nghiệm cho từng loại và lấy một số loại trung bình? Không hiệu quả về mặt tính toán, tôi sẽ cấp cho bạn :) nhưng có lẽ bạn chỉ cần chọn một số hoán vị ngẫu nhiên?
nè 101

2
@ naught101 Tính trung bình trên tất cả các hoán vị sẽ không cho bạn biết bất cứ điều gì, bởi vì bạn sẽ có được một đường ngang hoàn hảo. Có lẽ tôi hiểu nhầm ý của bạn?
whuber

1
@whuber: Tôi thực sự có nghĩa là lấy trung bình của một số loại thử nghiệm để hội tụ, chứ không phải chính biểu đồ. Nhưng tôi sẽ cho đó là một ý tưởng khá mơ hồ, và điều đó phần lớn là vì tôi không biết tôi đang nói về điều gì :)
naught101

7

Đây là một câu trả lời khác. Giả sử bạn có thể giải quyết vấn đề, đại loại như thế này:

H0: Xt(df=3) versus H1: Xt(df=1).

Sau đó, bạn có thể thực hiện kiểm tra tỷ lệ khả năng Neyman-Pearson bình thường của so với H 1 . Lưu ý rằng H 1Cauchy (vô hạn sai) và H 0 là bình thường sinh viên t với 3 bậc tự do (hữu hạn sai) trong đó có tiếng Anh PDF: f ( x | ν ) = Γ ( ν + 1H0H1H1H0 t

f(x|ν)=Γ(ν+12)νπΓ(ν2)(1+x2ν)ν+12,

cho . Với dữ liệu mẫu ngẫu nhiên đơn giản x 1 , x 2 , ... , x n , kiểm tra tỷ lệ khả năng bác bỏ H 0 khi Λ ( x ) = Π n i = 1 f ( x i | v = 1 )<x<x1,x2,,xnH0 trong đók0được chọn sao cho P(Λ(X)>k

Λ(x)=i=1nf(xi|ν=1)i=1nf(xi|ν=3)>k,
k0
P(Λ(X)>k|ν=3)=α.

Đó là một chút đại số để đơn giản hóa

Λ(x)=(32)ni=1n(1+xi2/3)21+xi2.

Vì vậy, một lần nữa, chúng ta có được một mẫu ngẫu nhiên đơn giản, tính toán , và từ chối H 0 nếu Λ ( x ) là quá lớn. Lớn như thế nào? Đó là phần thú vị! Sẽ rất khó (không thể?) Để có được một hình thức đóng cho giá trị quan trọng, nhưng chúng tôi có thể ước chừng nó gần như chúng tôi muốn, chắc chắn. Đây là một cách để làm điều đó, với R. Giả sử α = 0,05 và để cười, giả sử n = 13 .Λ(x)H0Λ(x)α=0.05n=13

Chúng tôi tạo ra một loạt các mẫu dưới , tính toán Λ cho mỗi mẫu, và sau đó tìm quantile thứ 95.H0Λ

set.seed(1)
x <- matrix(rt(1000000*13, df = 3), ncol = 13)
y <- apply(x, 1, function(z) prod((1 + z^2/3)^2)/prod(1 + z^2))
quantile(y, probs = 0.95)

12.8842(3/2)13k1.9859

H0H1α

Disclaimers: đây là một ví dụ đồ chơi. Tôi không có bất kỳ tình huống thực tế nào trong đó tôi tò mò muốn biết liệu dữ liệu của tôi đến từ Cauchy, trái ngược với Student t với 3 df. Và câu hỏi ban đầu đã không nói bất cứ điều gì về các vấn đề được tham số hóa, nó dường như đang tìm kiếm nhiều hơn về một cách tiếp cận không tham số, mà tôi nghĩ rằng đã được giải quyết tốt bởi những người khác. Mục đích của câu trả lời này là dành cho những độc giả tương lai, những người vấp phải tiêu đề của câu hỏi và đang tìm kiếm cách tiếp cận sách giáo khoa bụi bặm cổ điển.

H1:ν1


2
α

1
H1:ν2ν>2

2
α

1
αα=2

6

DY1,Y2,,YN

  1. H0:YiNormal(μ,σ)
  2. HA:YiCauchy(ν,τ)

Một giả thuyết có phương sai hữu hạn, một giả thuyết có phương sai vô hạn. Chỉ cần tính toán tỷ lệ cược:

P(H0|D,I)P(HA|D,I)=P(H0|I)P(HA|I)P(D,μ,σ|H0,I)dμdσP(D,ν,τ|HA,I)dνdτ

P(H0|I)P(HA|I)

P(D,μ,σ|H0,I)=P(μ,σ|H0,I)P(D|μ,σ,H0,I)
P(D,ν,τ|HA,I)=P(ν,τ|HA,I)P(D|ν,τ,HA,I)

L1<μ,τ<U1L2<σ,τ<U2

(2π)N2(U1L1)log(U2L2)L2U2σ(N+1)L1U1exp(N[s2(Y¯μ)2]2σ2)dμdσ

s2=N1i=1N(YiY¯)2Y¯=N1i=1NYi

πN(U1L1)log(U2L2)L2U2τ(N+1)L1U1i=1N(1+[Yiντ]2)1dνdτ

And now taking the ratio we find that the important parts of the normalising constants cancel and we get:

P(D|H0,I)P(D|HA,I)=(π2)N2L2U2σ(N+1)L1U1exp(N[s2(Y¯μ)2]2σ2)dμdσL2U2τ(N+1)L1U1i=1N(1+[Yiντ]2)1dνdτ

And all integrals are still proper in the limit so we can get:

P(D|H0,I)P(D|HA,I)=(2π)N20σ(N+1)exp(N[s2(Y¯μ)2]2σ2)dμdσ0τ(N+1)i=1N(1+[Yiντ]2)1dνdτ

The denominator integral cannot be analytically computed, but the numerator can, and we get for the numerator:

0σ(N+1)exp(N[s2(Y¯μ)2]2σ2)dμdσ=2Nπ0σNexp(Ns22σ2)dσ

Now make change of variables λ=σ2dσ=12λ32dλ and you get a gamma integral:

2Nπ0λN121exp(λNs22)dλ=2Nπ(2Ns2)N12Γ(N12)

And we get as a final analytic form for the odds for numerical work:

P(H0|D,I)P(HA|D,I)=P(H0|I)P(HA|I)×πN+12NN2s(N1)Γ(N12)0τ(N+1)i=1N(1+[Yiντ]2)1dνdτ

So this can be thought of as a specific test of finite versus infinite variance. We could also do a T distribution into this framework to get another test (test the hypothesis that the degrees of freedom is greater than 2).


1
When you started to integrate, you introduced a term s2. It persists through the final answer. What is it?
whuber

2
@whuber - s is the standard deviation MLE, s2=N1i=1N(YiY¯)2. I thought it was the usual notation for standard deviation, just as Y¯ is usual for average - which I have incorrectly written as x¯, will edit accordingly
probabilityislogic

5

The counterexample is not relevant to the question asked. You want to test the null hypothesis that a sample of i.i.d. random variables is drawn from a distribution having finite variance, at a given significance level. I recommend a good reference text like "Statistical Inference" by Casella to understand the use and the limit of hypothesis testing. Regarding h.t. on finite variance, I don't have a reference handy, but the following paper addresses a similar, but stronger, version of the problem, i.e., if the distribution tails follow a power law.

POWER-LAW DISTRIBUTIONS IN EMPIRICAL DATA SIAM Review 51 (2009): 661--703.


1

One approach that had been suggested to me was via the Central Limit Theorem.

This is a old question, but I want to propose a way to use the CLT to test for large tails.

Let X={X1,,Xn} be our sample. If the sample is a i.i.d. realization from a light tail distribution, then the CLT theorem holds. It follows that if Y={Y1,,Yn} is a bootstrap resample from X then the distribution of:

Z=n×mean(Y)mean(X)sd(Y),

is also close to the N(0,1) distribution function.

Now all we have to do is perform a large number of bootstraps and compare the empirical distribution function of the observed Z's with the e.d.f. of a N(0,1). A natural way to make this comparison is the Kolmogorov–Smirnov test.

The following pictures illustrate the main idea. In both pictures each colored line is constructed from a i.i.d. realization of 1000 observations from the particular distribution, followed by a 200 bootstrap resamples of size 500 for the approximation of the Z ecdf. The black continuous line is the N(0,1) cdf.

enter image description here enter image description here


2
No amount of bootstrapping will get you anywhere against the problem I raised in my answer. That's because the vast majority of samples will not supply any evidence of a heavy tail--and bootstrapping, by definition, uses only the data from the sample itself.
whuber

1
@whuber If the X values are taken from a symmetrical power law, then the generalized CLT applies and KS test will detect the difference. I believe that your observation do not correctly characterize what you say is a "gradual step from "finite" to "infinite""
Mur1lo

1
The CLT never "applies" to any finite sample. It's a theorem about a limit.
whuber

1
When I say that it "applies" I'm only saying that it provides a good approximation if we have a large sample.
Mur1lo

1
The vagueness of "good approximation" and "large" unfortunately fail to capture the logic of hypothesis tests. Implicit in your statement is the possibility of collecting an ever larger sample until you are able to detect the heavy-tailedness: but that's not how hypotheses tests usually work. In the standard setting you have a given sample and your task is to test whether it is from a distribution in the null hypothesis. In this case, bootstrapping won't do that any better than any more straightforward test.
whuber
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.