Tôi có thể tin tưởng kết quả ANOVA cho một DV không được phân phối bình thường không?


22

Tôi đã phân tích một thí nghiệm với các biện pháp lặp lại ANOVA. ANOVA là 3x2x2x2x3 với 2 yếu tố giữa các chủ thể và 3 trong (N = 189). Tỷ lệ lỗi là biến phụ thuộc. Sự phân bổ tỷ lệ lỗi có độ lệch là 3,64 và mức độ tổn thương là 15,75. Sự sai lệch và kurtosis là kết quả của 90% tỷ lệ lỗi có nghĩa là 0. Đọc một số chủ đề trước đây về các bài kiểm tra quy tắc ở đây làm tôi hơi bối rối. Tôi nghĩ rằng nếu bạn có dữ liệu không được phân phối bình thường thì việc chuyển đổi nó thành lợi ích tốt nhất của bạn nếu có thể, nhưng có vẻ như nhiều người nghĩ rằng phân tích dữ liệu không bình thường bằng ANOVA hoặc kiểm tra T là chấp nhận được. Tôi có thể tin tưởng vào kết quả của ANOVA không?

(FYI, Trong tương lai tôi dự định phân tích loại dữ liệu này trong R với các mô hình hỗn hợp với phân phối nhị thức)


1
Bạn có thể liên kết đến một số trong những chủ đề? Bản năng ruột của tôi là "NOOO no no no", nhưng tôi hầu như không phải là một chuyên gia và tôi rất thích đọc một số trong những tranh luận đó.
Matt Parker

4
Bạn chắc chắn không thể tin tưởng bất kỳ giá trị p nào có được từ phân phối F với các loại dữ liệu đó!
whuber

3
Nhiều người cho rằng sự mạnh mẽ của ANOVA là sự biện minh cho việc sử dụng nó với dữ liệu không bình thường. IMHO, độ mạnh không phải là một thuộc tính chung của thử nghiệm, nhưng bạn phải nêu chính xác a) đối với việc vi phạm các giả định của thử nghiệm đó là thử nghiệm mạnh mẽ (tính bình thường, tính toàn cầu, ...), b) ở mức độ nào những vi phạm này không lớn hiệu ứng, c) những điều kiện tiên quyết để thử nghiệm thể hiện sự mạnh mẽ (kích thước ô lớn & bằng nhau ...). Trong thiết kế cốt truyện phân chia của bạn, tôi rất muốn có ai đó nêu ra các giả định chính xác về tính hình cầu và sự bình đẳng của ma trận hiệp phương sai. Nó đã gây chú ý trong trường hợp 2 nhân tố.
caracal

3
@Matt Nghe có vẻ như 90% số dư là 0. Nếu đó là trường hợp, không có biến đổi sẽ làm cho phần dư từ xa gần với bình thường. Các nghiên cứu mô phỏng đã chỉ ra rằng giá trị p từ các thử nghiệm F rất nhạy cảm với độ lệch so với tính chuẩn. (Trong trường hợp của bạn, rất có khả năng một số mẫu số trong các bài kiểm tra F sẽ bằng 0: một chỉ số rõ ràng về việc mọi thứ có thể sai đến mức nào.) Bạn cần một cách tiếp cận khác. Phải làm gì phụ thuộc vào lý do tại sao rất nhiều phần dư bằng không. Thiếu độ chính xác đủ trong các phép đo?
whuber

2
@Matt nghe có vẻ phù hợp hơn, giả sử dữ liệu của bạn là số đếm. Một cân nhắc hấp dẫn khác là phản ứng nhị thức âm được thổi phồng bằng không ( ats.ucla.edu/stat/r/dae/zinbreg.htm ).
whuber

Câu trả lời:


20

Giống như các thử nghiệm tham số khác, phân tích phương sai giả định rằng dữ liệu phù hợp với phân phối bình thường. Nếu biến đo lường của bạn không được phân phối bình thường, bạn có thể tăng cơ hội cho kết quả dương tính giả nếu bạn phân tích dữ liệu bằng anova hoặc thử nghiệm khác giả định tính quy phạm. May mắn thay, một anova không nhạy cảm lắm với độ lệch vừa phải so với tính quy tắc; nghiên cứu mô phỏng, sử dụng nhiều phân phối không bình thường, đã chỉ ra rằng tỷ lệ dương tính giả không bị ảnh hưởng nhiều bởi sự vi phạm giả định này (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Điều này là do khi bạn lấy một số lượng lớn các mẫu ngẫu nhiên từ dân số, phương tiện của các mẫu đó được phân phối bình thường ngay cả khi dân số không bình thường.

Có thể kiểm tra mức độ phù hợp của dữ liệu được đặt thành phân phối bình thường. Tôi không khuyên bạn nên làm điều này, bởi vì nhiều bộ dữ liệu không bình thường đáng kể sẽ hoàn toàn phù hợp với anova.

Thay vào đó, nếu bạn có một bộ dữ liệu đủ lớn, tôi khuyên bạn chỉ nên nhìn vào biểu đồ tần số. Nếu nó trông ít nhiều bình thường, hãy tiếp tục và thực hiện một anova. Nếu nó trông giống như một phân phối bình thường đã bị đẩy sang một bên, như dữ liệu sunfat ở trên, bạn nên thử các phép biến đổi dữ liệu khác nhau và xem liệu bất kỳ trong số chúng làm cho biểu đồ trông bình thường hơn. Nếu điều đó không hiệu quả và dữ liệu vẫn trông không bình thường, có lẽ vẫn ổn để phân tích dữ liệu bằng cách sử dụng anova. Tuy nhiên, bạn có thể muốn phân tích nó bằng cách sử dụng một bài kiểm tra không tham số. Gần như mọi bài kiểm tra thống kê tham số đều có phần thay thế không tham số, chẳng hạn như bài kiểm tra Kruskalifer Wallis thay vì bài kiểm tra anova một chiều, bài kiểm tra xếp hạng có chữ ký của Wilcoxon thay vì bài kiểm tra t cặp và tương quan xếp hạng Spearman thay vì hồi quy tuyến tính. Các thử nghiệm không tham số này không cho rằng dữ liệu phù hợp với phân phối bình thường. Tuy nhiên, họ cho rằng dữ liệu trong các nhóm khác nhau có cùng phân phối với nhau; nếu các nhóm khác nhau có các phân phối có hình dạng khác nhau (ví dụ: một nhóm bị lệch sang trái, một nhóm khác bị lệch sang phải), một thử nghiệm không tham số có thể không tốt hơn một thử nghiệm tham số.

Tài liệu tham khảo

  1. Thủy tinh, GV, PD Peckham và JR Sanders. Năm 1972. Hậu quả của việc không đáp ứng các giả định dựa trên các phân tích hiệu ứng cố định của phương sai và hiệp phương sai. Mục sư giáo dục. Độ phân giải 42: 237-288.
  2. Harwell, MR, EN Rubinstein, WS Hayes và CC Olds. 1992. Tóm tắt kết quả Monte Carlo trong nghiên cứu phương pháp: các hiệu ứng cố định một và hai yếu tố ANOVA. J. Giáo dục. Thống kê 17: 315-39.
  3. Lix, LM, JC Keselman và HJ Keselman. 1996. Hậu quả của các vi phạm giả định được xem xét lại: Một đánh giá định lượng về các lựa chọn thay thế cho phân tích một chiều của thử nghiệm phương sai F. Mục sư giáo dục. Độ phân giải 66: 579-619.

7
Tôi chỉ có thể thể hiện sự thiếu hiểu biết của mình ở đây, nhưng không phải là giả định đằng sau ANOVA rằng phần dư là bình thường? Trong trường hợp đó, điều đó không thực sự quan trọng nếu bản thân biến không bình thường, miễn là phần dư phù hợp với mẫu.
richiemorrisroe

5
Có lẽ câu hỏi đã được chỉnh sửa nhưng tôi thực sự không hiểu tại sao câu trả lời này đã được nâng cấp và chấp nhận. Đó là lời khuyên chung chung, nhưng hầu như không liên quan gì đến trường hợp cụ thể này là "Sự sai lệch và kurtosis là kết quả của 90% tỷ lệ lỗi có nghĩa là 0". Trong trường hợp này, câu trả lời nên là không, không và không.
Erik

8

Cụ thể về tỷ lệ lỗi dưới dạng DV, Dixon (2008) rất minh chứng rằng việc kiểm tra giả thuyết null qua ANOVA có thể gây ra cả tốc độ báo động sai (gọi hiệu ứng "đáng kể" khi chúng không) tăng tỷ lệ bỏ lỡ (thiếu hiệu ứng thực). Ông cũng chỉ ra rằng mô hình hóa hiệu ứng hỗn hợp, chỉ định lỗi phân phối nhị thức, là cách tiếp cận phù hợp hơn để phân tích dữ liệu tỷ lệ.


4

Bạn không thể tin tưởng vào ANOVA của mình với nhiều độ lệch và số lượng 0 lớn. Một phương pháp thích hợp hơn sẽ là sử dụng số lỗi như DV của bạn (do đó biến DV của bạn thành dữ liệu đếm) và thực hiện phân tích Poisson. Cách tiếp cận này sẽ yêu cầu sử dụng phân tích hiệu ứng hỗn hợp và chỉ định họ phân phối lỗi là Poisson. Bài báo Dixon (2008) * được đề cập bởi Mike Lawrence sử dụng phân tích hiệu ứng hỗn hợp trong R nhưng với kết quả nhị thức. Tôi đã hoàn toàn chuyển sang làm R cho hầu hết các phân tích các biện pháp lặp đi lặp lại của mình bởi vì rất nhiều biến số kết quả của tôi là nhị thức. Gói R thích hợp là lme4.

Dixon, P. (2008). Các mô hình chính xác trong các thiết kế đo lặp lại. Tạp chí bộ nhớ và ngôn ngữ , 59 (4), 447-456.


2

Juan đã đưa ra rất nhiều, mặc dù tôi sẽ lặp lại những người khác và nhắc lại rằng để có độ chính xác cao nhất, các biến số có thể không bình thường miễn là phần dư của chúng không tồn tại. Ngoài ra, một câu trả lời đơn giản và có cấu trúc hơn một chút (thông qua biểu đồ dòng chú thích) có sẵn tại yellowbrickstats.com .


1
Xin lỗi, nhưng -1 từ tôi. Điều này nói chung là đúng, nhưng phần dư sẽ không có nếu chúng ta có lạm phát số không. Tôi nghĩ rằng câu trả lời không nên chỉ nói chung chung mà nhấn vào vấn đề cụ thể.
Erik

1

Hiệu ứng trần là vấn đề ở đây. Một thử nghiệm không tham số là đặt cược an toàn nhất của bạn, mặc dù ANOVAs rất mạnh đối với vi phạm quy tắc này nếu n lớn. Thông thường mọi người chỉ sử dụng biểu đồ để kiểm tra điều này, nhưng nếu vấn đề xảy ra với phần dư thì nó có thể tiến bộ hơn thế. Cũng nên nhớ làm thế nào điều này ảnh hưởng đến kết quả của bạn (không chỉ là nó làm). Pallant (2007) có thể nói điều này làm tăng khả năng xảy ra lỗi loại một, vì vậy nếu bạn giảm alpha quan trọng, bạn sẽ giảm thiểu điều đó.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.