Lý luận trực quan đằng sau các ước tính khả năng tối đa thiên vị


25

Tôi có một sự nhầm lẫn về các ước tính khả năng tối đa (ML) sai lệch . Toán học của toàn bộ khái niệm này khá rõ ràng đối với tôi nhưng tôi không thể tìm ra lý do trực giác đằng sau nó.

Đưa ra một tập dữ liệu nhất định có các mẫu từ một bản phân phối, chính nó là một hàm của một tham số mà chúng ta muốn ước tính, công cụ ước tính ML dẫn đến giá trị cho tham số có khả năng tạo ra tập dữ liệu đó.

Tôi không thể hiểu một cách trực giác một công cụ ước tính ML sai lệch theo nghĩa: làm thế nào giá trị có khả năng nhất cho tham số có thể dự đoán giá trị thực của tham số với độ lệch đối với giá trị sai?



Tôi nghĩ rằng sự tập trung vào sự thiên vị ở đây có thể phân biệt câu hỏi này với bản sao được đề xuất, mặc dù chúng chắc chắn có liên quan rất chặt chẽ.
Cá bạc

Câu trả lời:


14

công cụ ước tính ML dẫn đến giá trị cho tham số rất có thể xảy ra trong tập dữ liệu.

Với các giả định, công cụ ước tính ML là giá trị của tham số có cơ hội tốt nhất để tạo ra tập dữ liệu.

Tôi không thể hiểu một cách trực giác một công cụ ước tính ML sai lệch theo nghĩa "Làm thế nào giá trị có khả năng nhất cho tham số có thể dự đoán giá trị thực của tham số với độ lệch đối với giá trị sai?"

Xu hướng là về kỳ vọng của phân phối mẫu. "Nhiều khả năng tạo ra dữ liệu" không phải là về kỳ vọng phân phối mẫu. Tại sao họ sẽ đi cùng nhau?

Cơ sở mà đáng ngạc nhiên là họ không nhất thiết phải tương ứng là gì?

Tôi đề nghị bạn xem xét một số trường hợp đơn giản của MLE và suy ngẫm về sự khác biệt phát sinh trong những trường hợp cụ thể đó.

Như một ví dụ, hãy xem xét các quan sát trên một bộ đồng phục trên . Quan sát lớn nhất là (nhất thiết) không lớn hơn tham số, vì vậy tham số chỉ có thể nhận các giá trị ít nhất lớn bằng quan sát lớn nhất.(0,θ)

Khi bạn xem xét khả năng cho , nó là (rõ ràng) càng lớn thì gần θ là để quan sát lớn nhất. Vì vậy, nó được tối đa hóa ở mức quan sát lớn nhất; đó là rõ ước tính cho θ nhằm tối đa hóa cơ hội của việc thu thập các mẫu mà bạn có:θθθ

nhập mô tả hình ảnh ở đây

Nhưng mặt khác, nó phải được thiên vị, kể từ khi quan sát lớn nhất là rõ ràng (với xác suất 1) nhỏ hơn giá trị thực sự của ; bất kỳ ước tính nào khác về θ chưa được loại trừ bởi chính mẫu phải lớn hơn nó và phải (khá rõ ràng trong trường hợp này) ít có khả năng tạo ra mẫu.θθ

Kỳ vọng của các quan sát lớn nhất từ nU(0,θ) , vì vậy cách thông thường để unbias nó là để tận như ước lượng củaθ: θ =n+1nn+1θθ^=n+1nX(n)X(n)

Điều này nằm ở bên phải của MLE, và do đó có khả năng thấp hơn.


cảm ơn câu trả lời của bạn. Về phần đầu tiên, tôi thể hiện bản thân không chính xác. Tôi về cơ bản có nghĩa là những gì bạn nói. Dựa trên câu trả lời của bạn cho phần thứ hai, tôi có thể kết luận rằng với một tập hợp dữ liệu khác được rút ra từ cùng một phân phối, liệu công cụ ước tính ML có dẫn đến sai lệch khác không? Vì bạn nói rằng công cụ ước tính ML là công cụ "rất có thể" tạo ra dữ liệu. Nếu chúng ta thay đổi dữ liệu, một số người ước tính khác rất có thể sẽ tạo ra nó. Đúng không?
ssah

Công cụ ước tính sẽ không thay đổi nếu hình thức phân phối dân số không thay đổi. Một số ước tính khác sẽ được tạo ra với một mẫu khác nhau và số lượng mà nó bị sai lệch thường sẽ khác nhau - độ lệch thường liên quan đến kích thước mẫu, ngay cả khi dân số là như nhau. ... (ctd)
Glen_b -Reinstate Monica

(ctd) ... mnθ

Sử dụng tốt ví dụ kinh điển để thấy sự khác biệt giữa các công cụ ước tính không thiên vị và ML.
jwg

6

βMLEβββMLE

NN1


Xin lỗi vì sai lầm trong phần đầu tiên. Tôi đã chỉnh sửa và sửa nó. Nhưng về những gì bạn nói về MLE, tại sao nó lại bị sai lệch ở vị trí đầu tiên trong trường hợp không có triệu chứng?
ssah

2
"Tốt hơn" phụ thuộc vào những gì bạn nhìn vào; Sự điều chỉnh của Bessel làm cho nó không thiên vị, nhưng tính không thiên vị không tự động "tốt hơn" (ví dụ như MSE tệ hơn; tại sao tôi lại thích thiên vị hơn với MSE nhỏ hơn?). Không thiên vị có thể được tranh luận là tốt hơn, ceteris paribus , nhưng tiếc là các ceteris sẽ không được paribus .
Glen_b -Reinstate Monica

Sự hiểu biết của tôi là công cụ ước lượng không thiên vị có thể được hiển thị là không thiên vị nhất thông qua mối quan hệ giữa MLE và Cramer-Rao giới hạn dưới.
Dimitriy V. Masterov

@ssah Tôi đã nói rằng đó là vì chúng tôi đang sử dụng giá trị trung bình mẫu thay vì giá trị trung bình thực trong công thức. Thành thật mà nói, tôi chưa bao giờ thực sự tìm thấy lời giải thích này đặc biệt trực quan, bởi vì nếu công cụ ước tính MLE của giá trị trung bình không thiên vị, tại sao điều này lại sai? Tôi thường đặt nghi ngờ của mình để nghỉ ngơi với một mô phỏng.
Dimitriy V. Masterov

5

Đây là trực giác của tôi.

Xu hướng là thước đo độ chính xác , nhưng cũng có một khái niệm về độ chính xác .

nhập mô tả hình ảnh ở đây

Trong một thế giới lý tưởng, chúng ta sẽ có được ước tính, cả chính xác và chính xác, tức là luôn luôn đập vào mắt con bò. Thật không may, trong thế giới không hoàn hảo của chúng ta, chúng ta phải cân bằng giữa độ chính xác và độ chính xác. Đôi khi chúng ta có thể cảm thấy rằng chúng ta có thể đưa ra một chút chính xác để đạt được độ chính xác cao hơn: chúng ta đánh đổi mọi lúc. Do đó, việc một người ước tính bị thiên vị không có nghĩa là nó xấu: có thể chính xác hơn.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.