Tại sao GLM khác với LM có biến được chuyển đổi


16

Như đã giải thích trong tài liệu hướng dẫn khóa học này (trang 1) , một mô hình tuyến tính có thể được viết dưới dạng:

y=β1x1++βpxp+εi,

Trong đó y là biến trả lời và xi là biến giải thích ith .

Thông thường với mục tiêu đáp ứng các giả định kiểm tra, người ta có thể biến đổi biến trả lời. Ví dụ, chúng tôi áp dụng chức năng đăng nhập trên mỗi yi . Chuyển đổi một biến trả lời KHÔNG đồng nghĩa với việc thực hiện GLM.

Một GLM có thể được viết theo mẫu sau (từ bản hướng dẫn khóa học một lần nữa (trang 3) )

g(u)=β1x1++βpxp+εi,

trong đó u chỉ là một biểu tượng khác cho y như tôi hiểu từ trang 2 trong tài liệu hướng dẫn khóa học. g() được gọi là hàm liên kết.

Tôi không thực sự hiểu sự khác biệt giữa GLM và LM với biến được chuyển đổi từ các slide trong khóa học. Bạn có thể giúp tôi với đó?


2
Bạn có thể thấy nó được chiếu sáng để xem xét thực tế rằng tất cả các biến đổi của một kết quả nhị phân là affine, do đó sẽ giới hạn bạn trong hồi quy bình phương nhỏ nhất bình thường. Đây rõ ràng không phải là điều mà hồi quy logistic (GLM tiêu chuẩn cho phản hồi nhị phân) đang thực hiện. (Chứng minh: hãy để các giá trị kết quả được mã hóa như y 1 và để cho φ được bất kỳ chuyển đổi Viết. Z 0 = φ ( y 0 )z 1 = φ ( y 1 ) , chúng ta thấy φ đồng ý về { yy0y1ϕz0=ϕ(y0)z1=ϕ(y1)ϕ với y λ y + μ (mà là một biến đổi afin của y ), nơi λ = ( z 1 - z 0 ) / ( y 1 - y 0 ) μ = z 0 - λ y 0 ).{y0,y1}yλy+μyλ=(z1z0)/(y1y0)μ=z0λy0
whuber

Câu trả lời:


15

Chuyển đổi đáp ứng trước khi thực hiện hồi quy tuyến tính đang thực hiện việc này:

E(g(Y))β0+β1x1++βpxp

Trong đó là một hàm đã cho và chúng ta giả sử rằng g ( Y ) có phân phối cho trước (thường là bình thường).gg(Y)

Một mô hình tuyến tính tổng quát đang làm điều này:

g(E(Y))β0+β1x1++βpxp

trong đó giống như trước đây và chúng tôi giả sử rằng Y có phân phối cho trước (thường không bình thường).gY


E trong phương trình của bạn là gì?
dùng1406647

1
là ký hiệu chuẩn cho giá trị kỳ vọng của X . E(X)X
Marcus PS

Tôi cũng thấy điều này hữu ích: christoph-scherber.de/content/PDF%20Files/iêu
Aditya

22

Tôi không chắc chắn nếu điều này sẽ tạo thành một câu trả lời hoàn chỉnh cho bạn, nhưng nó có thể giúp giải phóng logjam khái niệm.

Dường như có hai quan niệm sai lầm trong tài khoản của bạn:

  1. Hãy nhớ rằng hồi quy bình phương nhỏ nhất bình phương (OLS - 'tuyến tính') trường hợp đặc biệt của mô hình tuyến tính tổng quát. Do đó, khi bạn nói "[t] định dạng lại biến trả lời KHÔNG đồng nghĩa với thực hiện GLM", điều này không chính xác. Lắp mô hình tuyến tính hoặc biến đổi biến trả lời và sau đó khớp mô hình tuyến tính cả hai cấu thành 'thực hiện GLM'.

  2. Trong việc xây dựng tiêu chuẩn của GLMs, những gì bạn gọi là " " (thường được biểu diễn bằng μ , nhưng điều này chỉ là vấn đề ưu tiên) là giá trị trung bình của phân phối phản ứng có điều kiện tại một địa điểm cụ thể trong không gian covariate (ví dụ, X ). Do đó, khi bạn nói "trong đó u chỉ là một biểu tượng khác cho y ", điều này cũng không chính xác. Trong công thức OLS, Y là một biến ngẫu nhiên và / hoặc y i là giá trị nhận ra của Y cho đơn vị quan sát / nghiên cứu i . Đó là, y (tổng quát hơn) đại diện cho dữ liệu , không phải là một tham số . uμXuyYyiYiy

    (Tôi không có ý định gây ra lỗi lầm. Tôi chỉ nghi ngờ rằng những điều này có thể gây ra sự nhầm lẫn của bạn.)

  3. Ngoài ra còn có một khía cạnh khác của mô hình tuyến tính tổng quát mà tôi không thấy bạn đề cập đến. Đó là chúng tôi chỉ định một phân phối đáp ứng. Trong trường hợp hồi quy OLS, phân phối đáp ứng là Gaussian (bình thường) và hàm liên kết là hàm nhận dạng. Trong trường hợp, giả sử, hồi quy logistic (có thể là những gì mọi người nghĩ đến đầu tiên khi họ nghĩ về GLM), phân phối phản hồi là Bernoulli (/ binomial) và chức năng liên kết là logit. Khi sử dụng các phép biến đổi để đảm bảo các giả định cho OLS được đáp ứng, chúng ta thường cố gắng làm cho phân phối đáp ứng có điều kiện trở nên bình thường. Tuy nhiên, không có sự chuyển đổi nào như vậy sẽ khiến việc phân phối Bernoulli trở nên bình thường.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.