Sự khác biệt giữa Mô hình hiệu ứng hỗn hợp của người hâm mộ và mô hình tăng trưởng tiềm ẩn của gia đình là gì?


15

Tôi thực sự quen thuộc với các mô hình hiệu ứng hỗn hợp (MEM), nhưng một đồng nghiệp gần đây đã hỏi tôi làm thế nào nó so sánh với các mô hình tăng trưởng tiềm ẩn (LGM). Tôi đã làm một chút googling và có vẻ như LGM là một biến thể của mô hình phương trình cấu trúc được áp dụng cho các trường hợp trong đó các biện pháp lặp lại thu được trong mỗi cấp của ít nhất một hiệu ứng ngẫu nhiên, do đó biến Time thành hiệu ứng cố định trong mô hình. Mặt khác, MEM và LGM có vẻ khá giống nhau (ví dụ: cả hai đều cho phép khám phá các cấu trúc hiệp phương sai khác nhau, v.v.).

Tôi có đúng không khi LGM về mặt khái niệm là một trường hợp đặc biệt của MEM, hoặc có sự khác biệt giữa hai cách tiếp cận đối với các giả định hoặc khả năng của họ để đánh giá các loại lý thuyết khác nhau không?


2
Điều khoản hiệu ứng ngẫu nhiên, hiệu ứng cố định, tăng trưởng tiềm ẩn có thể có nghĩa là những điều khác nhau trong các bối cảnh khác nhau. Liên quan đến cái thứ hai Andrew Gelman có một bài đăng trên blog với các ví dụ về một số định nghĩa. Vì vậy, sẽ thật tuyệt nếu bạn cung cấp các liên kết đến các định nghĩa của các mô hình này. Nói chung tôi nghĩ bạn đúng trong giả định của bạn. Xu hướng thời gian thường được xử lý riêng, vì giả định thông thường là phương sai của các biến hồi quy bị giới hạn không giữ, vì vậy bạn phải chứng minh rằng đối với xu hướng thời gian, điều này không thực sự thay đổi bất cứ điều gì về ước lượng và giải thích mô hình.
mpiktas

Câu trả lời:


12

LGM có thể được dịch sang MEM và ngược lại, vì vậy những mô hình này thực sự giống nhau. Tôi thảo luận về so sánh trong chương về LGM trong cuốn sách đa cấp của tôi, bản nháp của chương đó có trên trang chủ của tôi tại http://www.joophox.net/ con / cheap14.pdf


Cảm ơn bạn đã trả lời của bạn và chào mừng đến với trang web của chúng tôi! (Vì lý do tại sao tôi xóa phần nhận xét kết thúc trong câu trả lời của bạn, vui lòng truy cập Câu hỏi thường gặp của chúng tôi .)
whuber

10

Đây là những gì tôi tìm thấy khi xem xét chủ đề này. Tôi không phải là người thống kê nên tôi đã cố gắng tóm tắt cách tôi hiểu nó bằng các khái niệm tương đối cơ bản :-)

Hai khung công tác này đối xử với thời gian khác nhau:

  • MEM yêu cầu cấu trúc dữ liệu lồng nhau (ví dụ: học sinh được lồng trong lớp học) và thời gian được coi là một biến độc lập ở cấp độ thấp nhất và cá nhân ở cấp độ thứ hai
  • LGM áp dụng cách tiếp cận biến tiềm ẩn và kết hợp thời gian thông qua tải nhân tố ( câu trả lời này giải thích chi tiết hơn về cách tải các yếu tố đó, hoặc "điểm thời gian", hoạt động).

Sự khác biệt này dẫn đến các thế mạnh khác nhau của cả hai khung trong việc xử lý dữ liệu nhất định. Ví dụ, trong khung MEM, có thể dễ dàng thêm nhiều cấp độ hơn (ví dụ: học sinh được lồng trong các lớp học được lồng trong trường học), trong khi ở LGM, có thể mô hình hóa lỗi đo lường, cũng như nhúng nó vào mô hình đường dẫn lớn hơn bằng cách kết hợp một số đường cong tăng trưởng, hoặc bằng cách sử dụng các yếu tố tăng trưởng làm yếu tố dự báo cho các biến kết quả.

Tuy nhiên, những phát triển gần đây đã làm mờ đi sự khác biệt giữa các khung này và chúng được một số nhà nghiên cứu gọi là song sinh không giống nhau. Về cơ bản, MEM là một cách tiếp cận đơn biến, với các điểm thời gian được coi là quan sát của cùng một biến, trong khi LGM là cách tiếp cận đa biến, với mỗi điểm thời gian được coi là một biến riêng biệt. Cấu trúc trung bình và hiệp phương sai của các biến tiềm ẩn trong LGM tương ứng với các hiệu ứng cố định và ngẫu nhiên trong MEM, cho phép xác định cùng một mô hình bằng cách sử dụng một khung có kết quả giống hệt nhau.

Vì vậy, thay vì coi LGM là trường hợp đặc biệt của MEM, tôi thấy đây là trường hợp đặc biệt của mô hình phân tích nhân tố với tải trọng nhân tố được cố định theo cách như vậy, có thể giải thích các yếu tố tiềm ẩn (tăng trưởng).

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.