Một cách lỏng lẻo, khi ước tính lỗi tiêu chuẩn:
- Nếu bạn cho rằng điều gì đó là đúng và nó không đúng, bạn thường mất tính nhất quán. ( Điều này là xấu. Khi số lượng quan sát tăng lên, ước tính của bạn không cần phải hội tụ xác suất đến giá trị thực.) Ví dụ. khi bạn cho rằng các quan sát là độc lập và chúng không tồn tại, bạn có thể ồ ạt nhấn mạnh các lỗi tiêu chuẩn.
- Nếu bạn không cho rằng điều gì đó là đúng và đó là sự thật, bạn thường sẽ mất một số hiệu quả (tức là công cụ ước tính của bạn ồn hơn mức cần thiết.) Đây thường không phải là một vấn đề lớn. Bảo vệ công việc của bạn trong hội thảo có xu hướng dễ dàng hơn nếu bạn đứng về phía bảo thủ trong các giả định của mình.
Nếu bạn có đủ dữ liệu, bạn nên hoàn toàn an toàn vì công cụ ước tính phù hợp!
Như Woolridge đã chỉ ra mặc dù trong cuốn sách Giới thiệu Kinh tế lượng học (tr.247 phiên bản 6), một nhược điểm lớn có thể đến từ các vấn đề mẫu nhỏ, rằng bạn có thể bỏ một giả định (nghĩa là không có tương quan nối tiếp các lỗi) nhưng thêm một giả định khác mà bạn có đủ dữ liệu cho Định lý giới hạn trung tâm để khởi động! Vv ... dựa vào các đối số tiệm cận.
Nếu bạn có quá ít dữ liệu để dựa vào kết quả tiệm cận:
- "Số liệu thống kê" bạn tính toán có thể không tuân theo phân phối t cho các mẫu nhỏ. Do đó, các giá trị p có thể khá sai.
- Nhưng nếu các lỗi thực sự là bình thường, lỗi đồng nhất, lỗi IID thì các chỉ số t bạn tính toán, theo các giả định mẫu nhỏ cổ điển, sẽ tuân theo phân phối t chính xác.
Xem câu trả lời này tại đây cho một câu hỏi liên quan: https://stats.stackexchange.com/a/5626/97925