Một số định lý có thể giải thích (nghĩa là nói chung) tại sao dữ liệu trong thế giới thực có thể được dự kiến sẽ được phân phối bình thường?
Có hai cái mà tôi biết:
Định lý giới hạn trung tâm (tất nhiên), cho chúng ta biết rằng tổng của một số biến ngẫu nhiên độc lập có giá trị trung bình và phương sai (ngay cả khi chúng không được phân phối chính xác) có xu hướng được phân phối bình thường
Đặt X và Y là các RV liên tục độc lập với mật độ khác nhau sao cho mật độ khớp của chúng chỉ phụ thuộc vào + . Thì X và Y bình thường.
(bài chéo từ mathexchange )
Chỉnh sửa: Để làm rõ, tôi không đưa ra bất kỳ tuyên bố nào về lượng dữ liệu thế giới thực được phân phối bình thường. Tôi chỉ hỏi về các định lý có thể cung cấp cái nhìn sâu sắc về loại quy trình có thể dẫn đến dữ liệu phân phối thông thường.