Tại sao độ lệch bằng 0 đối với công cụ ước tính OLS đối với hồi quy tuyến tính?


7

Tôi hiểu khái niệm về sự đánh đổi sai lệch. Xu hướng dựa trên sự hiểu biết của tôi, đại diện cho lỗi vì sử dụng một lớp đơn giản (ví dụ: tuyến tính) để nắm bắt một ranh giới quyết định phi tuyến tính phức tạp. Vì vậy, tôi mong đợi công cụ ước tính OLS có độ lệch cao và phương sai thấp.

Nhưng đã đi qua Định lý Gauss Markov nói rằng độ lệch của OLS = 0 là điều đáng ngạc nhiên đối với tôi. Vui lòng giải thích mức độ thiên vị bằng 0 đối với OLS vì tôi dự đoán độ lệch của OLS sẽ cao. Tại sao sự hiểu biết của tôi về sai lệch?


3
Bằng chứng cho thấy độ lệch của ols (đối với mô hình tuyến tính) bằng 0, giả sử rằng mô hình là TRUE, nghĩa là tất cả các biến có liên quan đều được đưa vào mô hình, rằng hiệu ứng của chúng là chính xác tuyến tính, v.v. Nếu điều đó không đúng, kết quả không tuân theo.
kjetil b halvorsen


Định lý Gauss-Markov cho chúng ta biết rằng trong mô hình hồi quy, trong đó giá trị kỳ vọng của các điều khoản lỗi của chúng ta bằng 0, E (\ epsilon_ {i}) = 0 và phương sai của các thuật ngữ lỗi là không đổi và hữu hạn \ sigma ^ {2 } (\ epsilon_ {i}) = \ sigma ^ {2} \ textless \ infty và \ epsilon_ {i} và \ epsilon_ {j} không tương thích với tất cả i và j công cụ ước lượng bình phương nhỏ nhất b_ {0} và b_ {1 } không thiên vị và có phương sai tối thiểu trong số tất cả các công cụ ước tính tuyến tính không thiên vị.
GeorgeOfTheRF

4
Tôi đã không nói rằng mô hình phải phù hợp hoàn hảo, tôi đã nói rằng nên bao gồm tất cả các biến có liên quan. Đó là hai điều kiện khác nhau!
kjetil b halvorsen

5
Giả định trung bình bằng không đối với các lỗi đòi hỏi những gì @kjetilbhalvorsen đề cập: không có hiệu ứng hệ thống nào còn lại trong thuật ngữ lỗi.
Christoph Hanck

Câu trả lời:


8

Chúng ta có thể nghĩ về bất kỳ nhiệm vụ học tập có giám sát nào, có thể là hồi quy hoặc phân loại, khi cố gắng học một tín hiệu cơ bản từ dữ liệu nhiễu. Hãy xem xét ví dụ đơn giản theo dõi:

nhập mô tả hình ảnh ở đây

Mục tiêu của chúng tôi là ước tính tín hiệu thực dựa trên tập hợp các cặp được quan sát trong đó và là một số nhiễu ngẫu nhiên có nghĩa là 0. cuối cùng, chúng tôi phù hợp với một mô hình bằng thuật toán học máy yêu thích của chúng tôi.f(x){xi,yi}yi=f(xi)+ϵiϵif^(x)

Khi chúng tôi nói rằng công cụ ước tính OLS không thiên vị, điều chúng tôi thực sự muốn nói là nếu dạng thực của mô hình là , thì ước tính OLS và có các thuộc tính đáng yêu mà và .f(x)=β0+β1xβ^0β^1E(β^0)=β0E(β^1)=β1

nhập mô tả hình ảnh ở đây

Điều này đúng với ví dụ đơn giản của chúng tôi, nhưng nó là giả định rất mạnh! Nói chung, và đến mức không có mô hình nào thực sự chính xác, chúng ta không thể đưa ra các giả định như vậy về . Vì vậy, một mô hình có dạng sẽ bị sai lệch.f(x)f^(x)=β^0+β^1x

Nếu dữ liệu của chúng ta trông như thế này thì sao? ( cảnh báo spoiler: )f(x)=sin(x)

nhập mô tả hình ảnh ở đây

Bây giờ, nếu chúng ta phù hợp với mô hình ngây thơ , thì việc ước tính (độ lệch cao) là không đủ . Nhưng mặt khác, nó tương đối không nhạy với tiếng ồn (phương sai thấp).f^(x)=β^0+β^1xf(x)

nhập mô tả hình ảnh ở đây

Nếu chúng tôi thêm nhiều điều khoản cho mô hình, hãy nói , chúng ta có thể thu được nhiều tín hiệu "không rõ" hơn nhờ vào độ phức tạp được thêm vào trong cấu trúc mô hình của chúng ta. Chúng tôi hạ thấp độ lệch trên dữ liệu được quan sát, nhưng độ phức tạp thêm vào nhất thiết làm tăng phương sai. (Lưu ý, nếu thực sự định kỳ, mở rộng đa thức là một lựa chọn kém!)f^(x)=β^0+β^1x+β^2x2+...β^pxpf(x)

nhập mô tả hình ảnh ở đây

Nhưng một lần nữa, trừ khi chúng ta biết rằng đúng , mô hình của chúng tôi sẽ không bao giờ không thiên vị , ngay cả khi chúng tôi sử dụng OLS để phù hợp với các thông số.f(x)=β0+β1sin(x)

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.