Tại sao các hiệu ứng ngẫu nhiên bị thu hẹp về 0?


10

Có một lý do trực quan cho các hiệu ứng ngẫu nhiên bị thu hẹp về giá trị mong đợi của chúng trong mô hình hỗn hợp tuyến tính nói chung không?


Bạn có thể vui lòng cung cấp thêm một số bối cảnh cho câu hỏi này?
Macro

Các giá trị dự đoán từ các mô hình hiệu ứng ngẫu nhiên là các ước lượng co ngót ; sẽ có ít sự thu nhỏ khi các đơn vị thống kê khác nhau hoặc khi các phép đo chính xác hoặc với mẫu lớn. Đây có phải là những gì bạn đang theo đuổi, hoặc bạn thực sự có nghĩa là thu hẹp về giá trị mong đợi?
chl

3
Tôi muốn đề xuất một bài viết cũ hơn của Bradley Efron và Carl Morris, Nghịch lý thống kê của Stein (1977) (một bản PDF trực tuyến có ở đây ). Không chắc nó có trực quan hay không, nhưng đây là một giới thiệu khá nhẹ nhàng (với các ví dụ trong thế giới thực) vào khái niệm thu nhỏ.
Andy W

Câu trả lời:


4

nói chung, hầu hết "hiệu ứng ngẫu nhiên" xảy ra trong các tình huống cũng có "hiệu ứng cố định" hoặc một số phần khác của mô hình. Mô hình hỗn hợp tuyến tính nói chung trông như thế này:

yi=xiTβ+ziTu+ϵi

Trong đó là "hiệu ứng cố định" và là "hiệu ứng ngẫu nhiên". Rõ ràng, sự khác biệt chỉ có thể ở cấp độ khái niệm hoặc trong phương pháp ước tính của và . Vì nếu tôi xác định "hiệu ứng cố định" mới và thì tôi có hồi quy tuyến tính thông thường:βuuβx~i=(xiT,ziT)Tβ~=(βT,uT)T

yi=x~iTβ~+ϵi

Đây thường là một vấn đề thực tế thực tế khi phù hợp với các mô hình hỗn hợp khi các mục tiêu khái niệm cơ bản không rõ ràng. Tôi nghĩ thực tế rằng những tác động ngẫu nhiên đang bị thu hẹp về phía không, và rằng những tác động cố định không phải là cung cấp một số trợ giúp ở đây. Điều này có nghĩa là chúng ta sẽ có xu hướng ủng hộ mô hình chỉ bao gồm (tức là ) khi các ước tính của có độ chính xác thấp trong công thức OLS và có xu hướng ủng hộ công thức OLS đầy đủ khi các ước tính có độ chính xác cao.u β βu=0uu


2

Không phải câu hỏi của bạn tự trả lời sao? Nếu một giá trị được mong đợi thì một kỹ thuật mang các giá trị đến gần hơn sẽ là tốt nhất.

Một câu trả lời đơn giản đến từ luật số lượng lớn. Giả sử các đối tượng là hiệu ứng ngẫu nhiên của bạn. Nếu bạn chạy từ A đến D trong 200 thử nghiệm và đối tượng E trong 20 thử nghiệm, hiệu suất trung bình đo được của đối tượng đó bạn có nghĩ là đại diện hơn cho mu? Định luật về số lượng lớn sẽ dự đoán rằng hiệu suất của chủ thể E sẽ có nhiều khả năng sai lệch bởi một lượng lớn hơn so với bất kỳ từ A đến D. Nó có thể hoặc không, và bất kỳ đối tượng nào có thể đi chệch hướng, nhưng chúng ta sẽ nhiều hơn biện minh cho việc thu hẹp hiệu ứng của chủ thể E đối với chủ đề từ A đến D so với cách khác. Vì vậy, các hiệu ứng ngẫu nhiên lớn hơn và có N nhỏ hơn có xu hướng là những hiệu ứng bị thu hẹp nhiều nhất.

Từ mô tả này cũng xuất hiện tại sao các hiệu ứng cố định không bị thu hẹp. Đó là vì chúng đã được sửa, chỉ có một trong mô hình. Bạn không có tài liệu tham khảo để thu nhỏ nó về phía. Bạn có thể sử dụng độ dốc bằng 0 làm tham chiếu nhưng đó không phải là hiệu ứng ngẫu nhiên được thu nhỏ lại. Họ đang hướng tới một ước tính tổng thể như mu. Hiệu ứng cố định mà bạn có từ mô hình của mình là ước tính đó.


1

Tôi nghĩ rằng có thể hữu ích cho trực giác của bạn khi nghĩ về một mô hình hỗn hợp như một mô hình phân cấp hoặc đa cấp . Ít nhất với tôi, nó có ý nghĩa hơn khi tôi nghĩ về việc lồng và cách mô hình hoạt động trong và trên các danh mục theo cách phân cấp.

EDIT: Macro, tôi đã để nó kết thúc mở một chút vì nó giúp tôi xem nó trực quan hơn, nhưng tôi không chắc nó đúng. Nhưng để mở rộng nó theo hướng có thể không chính xác ...

Tôi xem xét nó như các hiệu ứng cố định trung bình giữa các loại và hiệu ứng ngẫu nhiên phân biệt giữa các loại. Ở một khía cạnh nào đó, các hiệu ứng ngẫu nhiên là các "cụm" có chung một số đặc điểm và các cụm lớn hơn và nhỏ gọn hơn sẽ có ảnh hưởng lớn hơn mức trung bình ở cấp cao hơn.

Với OLS đang thực hiện lắp (theo pha, tôi tin), "cụm" hiệu ứng ngẫu nhiên lớn hơn và nhỏ gọn hơn sẽ kéo theo sự phù hợp mạnh hơn về phía mình, trong khi "cụm" nhỏ hơn hoặc khuếch tán hơn sẽ kéo phù hợp ít hơn. Hoặc có lẽ sự phù hợp bắt đầu gần hơn với các "cụm" lớn hơn và nhỏ gọn hơn vì mức trung bình cao hơn gần hơn để bắt đầu với

Xin lỗi tôi không thể rõ ràng hơn, và thậm chí có thể sai. Nó có ý nghĩa với tôi bằng trực giác, nhưng khi tôi cố gắng viết nó, tôi không chắc đó là thứ từ trên xuống hay từ dưới lên, hay thứ gì đó khác biệt. Đây có phải là vấn đề của các "cụm" cấp thấp hơn phù hợp với bản thân mạnh mẽ hơn hay có ảnh hưởng lớn hơn đến mức trung bình cấp cao hơn - và do đó "kết thúc" gần với mức trung bình cao hơn - hay không?

Trong cả hai trường hợp, tôi cảm thấy rằng nó giải thích tại sao các loại biến ngẫu nhiên nhỏ hơn, khuếch tán hơn sẽ được kéo xa hơn về phía trung bình so với các loại lớn hơn, nhỏ gọn hơn.


Xin chào Wayne, bạn có thể mở rộng dựa trên điều này để mô tả làm thế nào sự co lại có thể (có lẽ là trực giác hơn) được khái niệm hóa bằng cách nghĩ về điều này như một mô hình phân cấp?
Macro

@Macro: OK, tôi đã thử. Không chắc chắn nếu nó làm cho câu trả lời tốt hơn hoặc xấu hơn, mặc dù.
Wayne
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.