Giả sử tình huống sau:
chúng tôi có một số lượng lớn (ví dụ 20) với kích thước nhóm nhỏ (ví dụ n = 3). Tôi nhận thấy rằng nếu tôi tạo các giá trị từ phân phối đồng đều, phần dư sẽ trông xấp xỉ bình thường mặc dù phân phối lỗi là đồng nhất. Mã R sau đây thể hiện hành vi này:
n.group = 200
n.per.group = 3
x <- runif(n.group * n.per.group)
gr <- as.factor(rep(1:n.group, each = n.per.group))
means <- tapply(x, gr, mean)
x.res <- x - means[gr]
hist(x.res)
Nếu tôi nhìn vào phần dư của một mẫu trong một nhóm ba, lý do cho hành vi là rõ ràng:
Vì là tổng của các biến ngẫu nhiên có độ lệch chuẩn không khác nhau, nên phân phối của nó khá gần với phân phối chuẩn hơn các thuật ngữ riêng lẻ.
Bây giờ giả sử tôi có tình huống tương tự với dữ liệu thực thay vì dữ liệu mô phỏng. Tôi muốn đánh giá xem các giả định ANOVA liên quan đến tính bình thường có được hay không. Hầu hết các quy trình được đề nghị đề nghị kiểm tra trực quan các phần dư (ví dụ: QQ-Plot) hoặc kiểm tra tính quy tắc trên các phần dư. Như ví dụ của tôi ở trên, điều này không thực sự tối ưu cho kích thước nhóm nhỏ.
Có cách nào khác tốt hơn khi tôi có nhiều nhóm kích cỡ nhỏ không?