Một vấn đề về ước tính của các tham số


13

Hãy Y1,Y2,Y3Y4 có bốn biến ngẫu nhiên mà E(Y1)=θ1θ3;  E(Y2)=θ1+θ2θ3;  E(Y3)=θ1θ3;  E(Y4)=θ1θ2θ3 , nơiθ1,θ2,θ3 là các thông số chưa biết. Cũng giả định rằngVar(Yi)=σ2 ,i=1,2,3,4. Sau đó, cái nào là đúng?

A. θ1,θ2,θ3 là đáng mến.

B. θ1+θ3 là đáng mến.

C. θ1θ3 là đáng mến và 12(Y1+Y3)là ước lượng không thiên vị tuyến tính tốt nhất củaθ1θ3.

D. θ2 là đáng mến.

Câu trả lời được đưa ra là C có vẻ lạ đối với tôi (vì tôi có D).

Tại sao tôi có D? Kể từ đó, E(Y2Y4)=2θ2 .

Tại sao tôi không hiểu rằng C có thể là một câu trả lời? Ok, tôi có thể thấy, Y1+Y2+Y3+Y44 là một ước lượng không thiên vị củaθ1θ3, và sai của nó là ít hơnY1+Y32 .

Xin vui lòng cho tôi biết tôi đang làm sai ở đâu.

Cũng được đăng ở đây: /math/2568894/a-probols-on-estimability-of-parameter


1
Đặt trong self-studythẻ hoặc ai đó sẽ đi cùng và đóng câu hỏi của bạn.
Carl

@Carl đã xong nhưng tại sao?
Stat_prob_001

Chúng là các quy tắc cho trang web, không phải quy tắc của tôi, quy tắc trang web.
Carl

? Y1Y3
Carl

1
@Carl bạn có thể nghĩ theo cách này: nơi ε 1 là một rv với trung bình 0 và phương sai σ 2 . Và, Y 3 = θ 1 - θ 3 + ε 3 nơi ε 3 là một rv với trung bình 0 và phương sai σ 2Y1=θ1θ3+ϵ1ϵ10σ2Y3=θ1θ3+ϵ3ϵ30σ2
Stat_prob_001

Câu trả lời:


8

Câu trả lời này nhấn mạnh việc xác minh tính dự toán. Tài sản phương sai tối thiểu là xem xét thứ cấp của tôi.

Để bắt đầu, hãy tóm tắt thông tin dưới dạng ma trận của mô hình tuyến tính như sau: nơiE(ε)=0,Var(ε)=σ2tôi(để thảo luận estimability, giả định spherity là không cần thiết. Tuy nhiên, để thảo luận về bất động sản Gauss-Markov, chúng tôi cần phải đảm nhận spherity củaε).

(1)Y:=[Y1Y2Y3Y4]=[101111101111][θ1θ2θ3]+[ε1ε2ε3ε4]:=Xβ+ε,
E(ε)=0,Var(ε)=σ2Iε

Nếu ma trận thiết kế là cấp bậc đầy đủ, sau đó tham số gốc β thừa nhận một độc đáo bình phương nhỏ nhất ước tính β = ( X ' X ) - 1 X ' Y . Do đó, bất kỳ thông số φ , được định nghĩa là một hàm tuyến tính φ ( β ) của β là đáng mến theo nghĩa là nó có thể được ước tính một cách rõ ràng bởi các dữ liệu thông qua bình phương nhỏ nhất ước tính β nhưXββ^=(XX)1XYϕϕ(β)ββ^ .ϕ^=pβ^

Sự tinh tế phát sinh khi không đủ thứ hạng. Để có một cuộc thảo luận kỹ lưỡng, trước tiên chúng tôi sửa một số ký hiệu và thuật ngữ (Tôi tuân theo quy ước của Phương pháp tiếp cận không có tọa độ cho các mô hình tuyến tính , Phần 4.8. Một số thuật ngữ nghe có vẻ không cần thiết về mặt kỹ thuật). Bên cạnh đó, các cuộc thảo luận áp dụng cho mô hình tuyến tính tổng quát Y = X β + ε với X R n × kβ R k .XY=Xβ+εXRn×kβRk

  1. Một đa thức hồi quy là tập hợp các vectơ trung bình vì thay đổi trên R k : MβRk
    M={Xβ:βRk}.
  2. Một chức năng tham số là một tuyến tính chức năng của β , φ ( β ) = p ' β = p 1 β 1 + + p k β k .ϕ=ϕ(β)β
    ϕ(β)=pβ=p1β1++pkβk.

Như đã đề cập ở trên, khi , không phải mọi hàm tham số ϕ ( β ) đều có thể ước tính được. Nhưng chờ đã, định nghĩa của thuật ngữ ước tính về mặt kỹ thuật là gì? Có vẻ khó để đưa ra một định nghĩa rõ ràng mà không cần bận tâm một chút đại số tuyến tính. Một định nghĩa, mà tôi nghĩ là trực quan nhất, như sau (từ cùng một tài liệu tham khảo đã nói ở trên):rank(X)<kϕ(β)

Định nghĩa 1. Một tham số chức năng là đáng mến nếu nó được xác định duy nhất bởi X β theo nghĩa là φ ( β 1 ) = φ ( β 2 ) bất cứ khi nào β 1 , β 2R k thỏa mãn X beta 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2RkXβ1=Xβ2

Diễn dịch. Định nghĩa trên quy định rằng ánh xạ từ đa thức hồi quy đến không gian tham số của ϕ phải là một đối một, được đảm bảo khi xếp hạng ( X ) = k (nghĩa là khi chính X là một đối một). Khi rank ( X ) < k , chúng ta biết rằng có tồn tại β 1β 2X beta 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1β2Xβ1=Xβ2. Định nghĩa có thể ước tính ở trên có hiệu lực loại trừ các hàm tham số thiếu cấu trúc dẫn đến các giá trị khác nhau ngay cả với cùng một giá trị trên , không có ý nghĩa tự nhiên. Mặt khác, một chức năng tham số đáng mến φ ( ) không cho phép các trường hợp φ ( β 1 ) = φ ( β 2 ) với β 1β 2 , miễn là điều kiện X β 1 = X β 2 được hoàn thành.Mϕ()ϕ(β1)=ϕ(β2)β1β2Xβ1=Xβ2

Có các điều kiện tương đương khác để kiểm tra khả năng ước tính của hàm tham số được đưa ra trong cùng một tham chiếu, Dự luật 8.4.

Sau phần giới thiệu dài dòng như vậy, hãy quay lại câu hỏi của bạn.

A. chính nó là không đáng mến với lý do là cấp bậc ( X ) < 3 , mà đòi hỏi X β 1 = X β 2 với β 1β 2 . Mặc dù định nghĩa trên được đưa ra cho các hàm vô hướng, nó dễ dàng được khái quát thành các hàm có giá trị véc tơ.βrank(X)<3Xβ1=Xβ2β1β2

B. là không đáng mến. Để wit, hãy xem xét β 1 = ( 0 , 1 , 0 ) 'β 2 = ( 1 , 1 , 1 ) ' , mang đến cho X β 1 = X β 2 nhưng φ 1ϕ1(β)=θ1+θ3=(1,0,1)ββ1=(0,1,0)β2=(1,1,1)Xβ1=Xβ2 .ϕ1(β1)=0+0=0ϕ1(β2)=1+1=2

C. là đáng mến. Bởi vì X beta 1 = X β 2 trivially ngụ ý θ ( 1 ) 1 - θ ( 1 ) 3 = θ ( 2 ) 1 - θ ( 2 ) 3 , tức là φϕ2(β)=θ1θ3=(1,0,1)βXβ1=Xβ2θ1(1)θ3(1)=θ1(2)θ3(2) .ϕ2(β1)=ϕ2(β2)

D. cũng đáng mến . Các nguồn gốc từ X beta 1 = X β 2 đến φ 3 ( β 1 ) = φ 3 ( β 2 ) cũng là tầm thường.ϕ3(β)=θ2=(0,1,0)βXβ1=Xβ2ϕ3(β1)=ϕ3(β2)

After the estimability is verified, there is a theorem (Proposition 8.16, same reference) claims the Gauss-Markov property of ϕ(β). Based on that theorem, the second part of option C is incorrect. The best linear unbiased estimate is Y¯=(Y1+Y2+Y3+Y4)/4, by the theorem below.

Theorem. Let ϕ(β)=pβ be an estimable parametric functional, then its best linear unbiased estimate (aka, Gauss-Markov estimate) is ϕ(β^) for any solution β^ to the normal equations XXβ^=XY.

The proof goes as follows:

Proof. Straightforward calculation shows that the normal equations is

[404020404]β^=[111101011111]Y,
which, after simplification, is
[ϕ(β^)θ^2/2ϕ(β^)]=[Y¯(Y2Y4)/4Y¯],
i.e., ϕ(β^)=Y¯.

Therefore, option D is the only correct answer.


Addendum: The connection of estimability and identifiability

When I was at school, a professor briefly mentioned that the estimability of the parametric functional ϕ corresponds to the model identifiability. I took this claim for granted then. However, the equivalance needs to be spelled out more explicitly.

Theo Mô hình thống kê chuyên khảo của AC Davison , tr.144,

θ

(1), regardless the spherity condition Var(ε)=σ2I, it can be reformulated as

(2)E[Y]=Xβ,βRk.

It is such a simple model that we only specified the first moment form of the response vector Y. When rank(X)=k, model (2) is identifiable since β1β2 implies Xβ1Xβ2 (the word "distribution" in the original definition, naturally reduces to "mean" under model (2).).

Now suppose that rank(X)<k and a given parametric functional ϕ(β)=pβ, how do we reconcile Definition 1 and Definition 2?

Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β) is equivalent to that the model (2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=pβ (the design matrix X is likely to change accordingly). To prove, suppose ϕ(β) is estimable so that Xβ1=Xβ2 implies pβ1=pβ2, by definition, this is ϕ1=ϕ2, hence model (3) is identifiable when indexing with ϕ. Conversely, suppose model (3) is identifiable so that Xβ1=Xβ2 implies ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β).

Intuitively, when X is reduced-ranked, the model with β is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.

To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1θ3 and ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1) in terms of the reparametrized parameter (ϕ2,ϕ3) as follows

E[Y]=[10111011][ϕ2ϕ3]=X~γ.

Clearly, since X~ is full-ranked, the model with the new parameter γ is identifiable.


If you need a proof for the second part of option C, I will supplement my answer.
Zhanxiong

2
thanks! for such a detailed answer. Now, about the second part of C: I know that "best" relates to minimum variance. So, why not 14(Y1+Y2+Y3+Y4) is not "best"?
Stat_prob_001

2
Oh, I don't know why I thought it is the estimator in C. Actually (Y1+Y2+Y3+Y4)/4 is the best estimator. Will edit my answer
Zhanxiong

6

Apply the definitions.

I will provide details to demonstrate how you can use elementary techniques: you don't need to know any special theorems about estimation, nor will it be necessary to assume anything about the (marginal) distributions of the Yi. We will need to supply one missing assumption about the moments of their joint distribution.

Definitions

All linear estimates are of the form

tλ(Y)=i=14λiYi
for constants λ=(λi).

An estimator of θ1θ3 is unbiased if and only if its expectation is θ1θ3. By linearity of expectation,

θ1θ3=E[tλ(Y)]=i=14λiE[Yi]=λ1(θ1θ3)+λ2(θ1+θ2θ3)+λ3(θ1θ3)+λ4(θ1θ2θ3)=(λ1+λ2+λ3+λ4)(θ1θ3)+(λ2λ4)θ2.

Comparing coefficients of the unknown quantities θi reveals

(1)λ2λ4=0 and λ1+λ2+λ3+λ4=1.

In the context of linear unbiased estimation, "best" always means with least variance. The variance of tλ is

Var(tλ)=i=14λi2Var(Yi)+ij4λiλjCov(Yi,Yj).

The only way to make progress is to add an assumption about the covariances: most likely, the question intended to stipulate they are all zero. (This does not imply the Yi are independent. Furthermore, the problem can be solved by making any assumption that stipulates those covariances up to a common multiplicative constant. The solution depends on the covariance structure.)

Since Var(Yi)=σ2, we obtain

(2)Var(tλ)=σ2(λ12+λ22+λ32+λ42).

The problem therefore is to minimize (2) subject to constraints (1).

Solution

The constraints (1) permit us to express all the λi in terms of just two linear combinations of them. Let u=λ1λ3 and v=λ1+λ3 (which are linearly independent). These determine λ1 and λ3 while the constraints determine λ2 and λ4. All we have to do is minimize (2), which can be written

σ2(λ12+λ22+λ32+λ42)=σ24(2u2+(2v1)2+1).

No constraints apply to (u,v). Assume σ20 (so that the variables aren't just constants). Since u2 and (2v1)2 are smallest only when u=2v1=0, it is now obvious that the unique solution is

λ=(λ1,λ2,λ3,λ4)=(1/4,1/4,1/4,1/4).

Option (C) is false because it does not give the best unbiased linear estimator. Option (D), although it doesn't give full information, nevertheless is correct, because

θ2=E[t(0,1/2,0,1/2)(Y)]

is the expectation of a linear estimator.

It is easy to see that neither (A) nor (B) can be correct, because the space of expectations of linear estimators is generated by {θ2,θ1θ3} and none of θ1,θ3, or θ1+θ3 are in that space.

Consequently (D) is the unique correct answer.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.