Ma trận thông tin quan sát là một ước lượng phù hợp của ma trận thông tin dự kiến?


16

Tôi đang cố gắng chứng minh rằng ma trận thông tin quan sát được đánh giá ở công cụ ước tính khả năng tối đa nhất quán yếu (MLE), là một công cụ ước tính nhất quán yếu của ma trận thông tin dự kiến. Đây là một kết quả được trích dẫn rộng rãi nhưng không ai đưa ra một tài liệu tham khảo hoặc bằng chứng (tôi đã hết tôi nghĩ rằng 20 trang đầu tiên của kết quả google và sách giáo khoa thống kê của tôi)!

Sử dụng một chuỗi MLE phù hợp yếu, tôi có thể sử dụng định luật yếu về số lượng lớn (WLLN) và định lý ánh xạ liên tục để có được kết quả mà tôi muốn. Tuy nhiên tôi tin rằng định lý ánh xạ liên tục không thể được sử dụng. Thay vào đó tôi nghĩ rằng luật thống nhất về số lượng lớn (ULLN) cần được sử dụng. Có ai biết một tài liệu tham khảo có bằng chứng về điều này? Tôi có một nỗ lực tại ULLN nhưng bây giờ bỏ qua nó cho ngắn gọn.

Tôi xin lỗi về độ dài của câu hỏi này nhưng ký hiệu phải được giới thiệu. Ký hiệu là như mọi người (bằng chứng của tôi là ở cuối).

Giả sử chúng ta có một mẫu iid của các biến ngẫu nhiên với mật độ , trong đó (ở đây chỉ là một biến ngẫu nhiên chung có cùng mật độ với bất kỳ thành viên nào trong mẫu). Vectơ là vectơ của tất cả các vectơ mẫu trong đó cho tất cả . Giá trị tham số thực của mật độ là và là công cụ ước tính khả năng tối đa nhất quán (MLE) của{Y1,,YN}f(Y~|θ)θΘRkY~Y=(Y1,,YN)TYiRni=1,,Nθ N ( Y ) q 0θ0θ^N(Y)θ0. Theo các điều kiện đều đặn, ma trận Thông tin Fisher có thể được viết là

I(θ)=Eθ[Hθ(logf(Y~|θ)]

trong đó là ma trận Hessian. Mẫu tương đương làHθ

IN(θ)=i=1NIyi(θ),

trong đó . Ma trận thông tin quan sát được là;Iyi=Eθ[Hθ(logf(Yi|θ)]

J(θ)=Hθ(logf(y|θ) ,

(một số người yêu cầu ma trận được đánh giá tại nhưng một số thì không). Mẫu ma trận thông tin quan sát là;θ^

JN(θ)=i=1NJyi(θ)

trong đó Jyi(θ)=Hθ(logf(yi|θ) .

Tôi có thể chứng minh sự hội tụ về xác suất của công cụ ước tính với , nhưng không phải là đến . Đây là bằng chứng của tôi cho đến nay;N1JN(θ)I(θ)N1JN(θ^N(Y))I(θ0)

Bây giờ là phần tử của , với bất kỳ . Nếu mẫu là iid, thì theo định luật yếu của số lượng lớn (WLLN), trung bình của các phép triệu hồi này hội tụ xác suất đến . Do đó cho tất cả , và vì vậy . Thật không may, chúng ta không thể đơn giản kết luận ( r , s ) J N ( θ ) r , s = 1 , ... , k - E θ [ ( H θ ( log f ((JN(θ))rs=i=1N(Hθ(logf(Yi|θ))rs(r,s)JN(θ)r,s=1,,k N - 1 ( J N ( θ ) ) r s P ( I ( θ ) ) r s r , s = 1 , ... , k NEθ[(Hθ(logf(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rsN1(JN(θ))rsP(I(θ))rsr,s=1,,k N - 1 J N ( θ N (Y)) P Tôi( θ 0 )N1JN(θ)PI(θ)N1JN(θ^N(Y))PI(θ0)bằng cách sử dụng định lý ánh xạ liên tục vì không cùng chức năng với .Tôi ( )N1JN()I()

Bất kì sự giúp đỡ nào trong việc này đều rất được trân trọng.



câu trả lời của tôi dưới đây có trả lời câu hỏi của bạn không?
Dapz

1
@Dapz Hãy chấp nhận lời xin lỗi chân thành nhất của tôi vì đã không trả lời bạn cho đến bây giờ - Tôi đã phạm sai lầm khi cho rằng không ai sẽ trả lời. Cảm ơn bạn đã trả lời bên dưới - Tôi đã nâng cấp nó vì tôi có thể thấy nó hữu ích nhất, tuy nhiên tôi cần dành một chút thời gian để xem xét nó. Cảm ơn bạn đã dành thời gian và tôi sẽ trả lời bài viết của bạn dưới đây.
dandar

Câu trả lời:


7

Tôi đoán trực tiếp thiết lập một số loại luật thống nhất với số lượng lớn là một cách tiếp cận có thể.

Đây là một cái khác.

Chúng tôi muốn chứng minh rằng .JN(θMLE)NPI(θ)

(Như bạn đã nói, chúng tôi có WLLN mà . Nhưng điều này không trực tiếp giúp chúng tôi.)JN(θ)NPI(θ)

Một chiến lược khả thi là chỉ ra rằng

|I(θ)JN(θ)N|P0.

|JN(θMLE)NJN(θ)N|P0

Nếu cả hai kết quả đều đúng, thì chúng ta có thể kết hợp chúng để có được

|I(θ)JN(θMLE)N|P0,

đó chính xác là những gì chúng tôi muốn thể hiện.

Phương trình đầu tiên xuất phát từ định luật yếu của số lượng lớn.

Thứ hai gần như xuất phát từ định lý ánh xạ liên tục, nhưng thật không may, hàm chúng tôi muốn áp dụng CMT để thay đổi với : của chúng tôi thực sự là . Vì vậy, chúng tôi không thể sử dụng CMT.N g g N ( θ ) : = J N ( θ )g()NggN(θ):=JN(θ)N

(Nhận xét: Nếu bạn kiểm tra bằng chứng của CMT trên Wikipedia, hãy lưu ý rằng tập hợp mà họ xác định trong chứng minh của họ cho chúng tôi bây giờ cũng phụ thuộc vào . Về cơ bản chúng tôi cần một số loại không liên tục tại trên các chức năng của chúng tôi .) n θ * g N ( θ )BδnθgN(θ)

May mắn thay, nếu bạn cho rằng gia đình là ngẫu nhiên ngẫu nhiên tại , sau đó nó ngay lập tức theo đó cho , G={gN|N=1,2,}θθMLEPθ

|gn(θMLE)gn(θ)|P0.

(Xem tại đây: http : //www.cs.ber siêu.edu/~jordan/cifts/210B-spring07/lectures/stat210b_lecture_12.pdf để biết định nghĩa về sự tương đương ngẫu nhiên tại , và bằng chứng về thực tế trên. )θ

Do đó, giả sử rằng là SE tại , kết quả mong muốn của bạn là đúng và thông tin Fisher theo kinh nghiệm hội tụ vào thông tin Fisher dân số.Gθ

Bây giờ, câu hỏi quan trọng tất nhiên là, bạn cần áp dụng những điều kiện nào cho để có được SE? Có vẻ như một cách để làm điều này là thiết lập một điều kiện Lipshitz trên toàn bộ lớp chức năng (xem tại đây: http://econ.duke.edu/uploads/media_items/uniform-convergence-and-stochastic -equicContuity.origen.pdf ).GG


1

Câu trả lời ở trên sử dụng phương pháp ngẫu nhiên ngẫu nhiên hoạt động rất tốt, nhưng ở đây tôi đang trả lời câu hỏi của riêng mình bằng cách sử dụng một định luật thống nhất về số lượng lớn để chỉ ra rằng ma trận thông tin quan sát là một công cụ ước lượng nhất quán của ma trận thông tin, tức là nếu chúng ta cắm vào một chuỗi các công cụ ước tính nhất quán mạnh. Tôi hy vọng nó là chính xác trong tất cả các chi tiết.N1JN(θ^N(Y))a.s.I(θ0)

Chúng tôi sẽ sử dụng là một bộ chỉ số, và chúng ta hãy tạm thời áp dụng các ký hiệu J ( ~ Y , θ ) : = J ( θ ) để được rõ ràng về sự phụ thuộc của J ( θ ) trên vector ngẫu nhiên ~ Y . Chúng ta cũng sẽ làm việc theo nguyên tố với ( J ( ˜ Y , θ ) ) rIN={1,2,...,N}J(Y~,θ):=J(θ)J(θ)Y~( J N (θ) ) r s =N i = 1 (J( Y i ,θ) ) r s ,r,s=1,. . . ,k, cho cuộc thảo luận này. Chức năng(J(,θ) ) r s là giá trị thực trên tập R n × Θ(J(Y~,θ))rs(JN(θ))rs=i=1N(J(Yi,θ))rsr,s=1,...,k(J(,θ))rs , và chúng tôi sẽ giả sử rằng nó là Lebesgue đo lường cho mỗiq q . Một luật thống nhất (mạnh) với số lượng lớn xác định một tập hợp các điều kiện theo đóRn×ΘθΘ

supθΘ|N1(JN(θ))rsEθ[(J(Y1,θ))rs]|=supθΘ|N1i=1N(J(Yi,θ))rs(I(θ))rs|a.s0(1)

Các điều kiện phải được thỏa mãn để đó (1) nắm giữ là (a) là một tập hợp nhỏ gọn; (b) ( J ( ˜ Y , θ ) ) r s là hàm liên tục trên Θ với xác suất 1; (c) cho mỗi θ q ( J ( ~ Y , θ ) ) r s bị chi phối bởi một hàm h ( ~ Y ) , tức | ( J ( ~ Y ,Θ(J(Y~,θ))rsΘθΘ (J(Y~,θ))rsh(Y~) ; và (d) cho mỗi θ q E θ [ h ( ~ Y ) ] < ;. Những điều kiện này đến từ Jennrich (1969, Định lý 2).|(J(Y~,θ))rs|<h(Y~)θΘ Eθ[h(Y~)]<

Bây giờ đối với bất kỳ , i I Nθ 'S q , sự bất bình đẳng sau đây rõ ràng là giữyiRniINθSΘ

|N1i=1N(J(yi,θ))rs(I(θ))rs|supθS|N1i=1N(J(yi,θ))rs(I(θ))rs|.(2)

Giả sử rằng là một chuỗi thống nhất mạnh của ước lượng cho θ 0 , và để cho Θ N 1 = B δ N 1 ( θ 0 ) K Θ là một bóng mở trong R k với bán kính δ N 10 khi N 1 , và giả sử K là nhỏ gọn. Sau đó, kể từ khi θ N ({θ^N(Y)}θ0ΘN1=BδN1(θ0)KΘRkδN10N1K cho N đủ đủ lớn chúng ta có P [ lim N { θ N ( Y ) q N 1 } ] = 1 cho đủ lớn N . Cùng với (2) điều này ngụ ýθ^N(Y)ΘN1NP[limN{θ^N(Y)ΘN1}]=1N

P[limN{|N1i=1N(J(Yi,θ^N(Y)))rs(I(θ^N(Y)))rs|supθΘN1|N1i=1N(J(Yi,θ))rs(I(θ))rs|}]=1.(3)

Now ΘN1Θ implies conditions (a)-(d) of Jennrich (1969, Theorem 2) apply to ΘN1. Thus (1) and (3) imply

P[limN{|N1i=1N(J(Yi,θ^N(Y)))rs(I(θ^N(Y)))rs|=0}]=1.(4)

Since (I(θ^N(Y)))rsa.s.I(θ0) then (4) implies that N1(JN(θ^N(Y)))rsa.s.(I(θ0))rs. Note that (3) holds however small ΘN1 is, and so the result in (4) is independent of the choice of N1 other than N1 must be chosen such that ΘN1Θ. This result holds for all r,s=1,...,k, and so in terms of matrices we have N1JN(θ^N(Y))a.s.I(θ0).

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.