Đây là bài viết đầu tiên của tôi, vì vậy xin hãy bình tĩnh nếu tôi không tuân theo một số tiêu chuẩn! Tôi đã tìm kiếm câu hỏi của tôi và không có gì đưa ra.
Câu hỏi của tôi chủ yếu liên quan đến sự khác biệt thực tế giữa mô hình tuyến tính tổng quát (GLM) và mô hình tuyến tính tổng quát (GZLM). Trong trường hợp của tôi, đó sẽ là một vài biến liên tục dưới dạng hiệp biến và một vài yếu tố trong ANCOVA, so với GZLM. Tôi muốn kiểm tra các tác động chính của từng biến, cũng như một tương tác ba chiều mà tôi sẽ phác thảo trong mô hình. Tôi có thể thấy giả thuyết này đang được thử nghiệm trong ANCOVA hoặc sử dụng GZLM. Ở một mức độ nào đó, tôi hiểu các quy trình toán học và lý do đằng sau việc chạy một mô hình tuyến tính chung như ANCOVA và tôi phần nào hiểu rằng GZLM cho phép một hàm liên kết kết nối mô hình tuyến tính và biến phụ thuộc (ok, tôi đã nói dối, có lẽ tôi không thực sự hiểu toán). Những gì tôi thực sự không ' Chúng tôi hiểu sự khác biệt hoặc lý do thực tế để chạy một phân tích và không phải là khác khi phân phối xác suất được sử dụng trong GZLM là bình thường (nghĩa là chức năng liên kết nhận dạng?). Tôi nhận được kết quả rất khác nhau khi tôi chạy cái khác. Tôi có thể chạy không? Dữ liệu của tôi hơi bất thường, nhưng hoạt động ở một mức độ nào đó cả trong ANCOVA và GZLM. Trong cả hai trường hợp, giả thuyết của tôi đều được hỗ trợ, nhưng trong GZLM, giá trị p là "tốt hơn".
Tôi nghĩ rằng ANCOVA là một mô hình tuyến tính với biến phụ thuộc được phân phối bình thường bằng cách sử dụng chức năng liên kết nhận dạng, đó chính xác là những gì tôi có thể nhập vào trong GZLM, nhưng chúng vẫn khác nhau.
Xin hãy làm sáng tỏ những câu hỏi này cho tôi, nếu bạn có thể!
Dựa trên câu trả lời đầu tiên tôi có câu hỏi bổ sung:
Nếu chúng giống hệt nhau ngoại trừ thử nghiệm quan trọng mà nó sử dụng (nghĩa là thử nghiệm F so với Quảng trường Wald Chi), cái nào sẽ thích hợp nhất để sử dụng? ANCOVA là "phương pháp đi đến", nhưng tôi không chắc tại sao thử nghiệm F lại thích hợp hơn. Ai đó có thể làm sáng tỏ câu hỏi này cho tôi? Cảm ơn!