Chúng ta có cần phải lo lắng về các ngoại lệ khi sử dụng các bài kiểm tra dựa trên xếp hạng không?


8

Xin lỗi nếu đây là một câu hỏi rất cơ bản.

Nếu chúng ta có dữ liệu không được phân phối bình thường (ví dụ: xiên, kiểm tra Shapiro-Wilk là đáng kể) và chúng ta sử dụng các phương pháp dựa trên xếp hạng (ví dụ: kiểm tra Xếp hạng có chữ ký của Wilcoxon), thì chúng ta có cần phải quan tâm đến các ngoại lệ không?

Ví dụ, hãy tưởng tượng, chúng ta vẽ đồ thị dữ liệu bằng cách sử dụng boxplot và một số ít điểm dữ liệu được đánh dấu là ngoại lệ. Chúng ta có nên biến đổi những điểm đó? Hoặc loại bỏ chúng? Dường như với tôi, nhiều sách giáo khoa nói về việc xử lý các ngoại lệ, nhưng chỉ vì chúng gây ảnh hưởng lớn đến các tham số như giá trị trung bình và độ lệch chuẩn. Tuy nhiên, khi chúng tôi sử dụng bài kiểm tra dựa trên xếp hạng, chúng sẽ được 'biến đổi' thành giá trị tiếp theo trong xếp hạng, và do đó sẽ không gây ảnh hưởng lớn đến bài kiểm tra. Tôi chưa thấy điều này được nêu rõ ràng trong một cuốn sách thống kê cho đến nay, vì vậy tôi nghĩ rằng tôi sẽ đặt câu hỏi ở đây.

Chúng ta có cần phải lo lắng về các ngoại lệ khi sử dụng các bài kiểm tra dựa trên xếp hạng không?


3
Các bài kiểm tra dựa trên xếp hạng thống kê là mạnh mẽ chống lại ngoại lệ. Nhưng một ngoại lệ là một ngoại lệ, ở cấp độ hoạt động, nhà phân tích vẫn nên xem xét trường hợp đó. Vì vậy, tôi muốn nói rằng chúng ta vẫn cần "lo lắng" một phần về các ngoại lệ.
Penguin_Knight

Nó tốt ngay cả khi câu hỏi có thể rất cơ bản. Miễn là câu hỏi không được trả lời trên trang web này, ngay cả những câu hỏi cơ bản cũng là những câu hỏi hay
Hotaka

Câu trả lời:


9

Không. Khi dữ liệu được xếp hạng, một ngoại lệ sẽ chỉ được công nhận là trường hợp được xếp hạng ở trên (hoặc bên dưới) trong trường hợp cực kỳ tiếp theo. Bất kể có 0,01 hay 5 độ lệch chuẩn giữa giá trị cực đoan nhất và thứ hai, mức độ khác biệt đó sẽ bị loại bỏ khi dữ liệu được xếp hạng.

Trên thực tế, một trong nhiều lý do tại sao một người nào đó có thể sử dụng bài kiểm tra dựa trên xếp hạng (hoặc không theo tỷ lệ) là do ngoại lệ.


3
Và hiệu quả tuyệt vời của các phương pháp không tham số và bán tổng thể là một lý do không kiểm tra trước tính chuẩn (bên cạnh khả năng không đầy đủ của kiểm tra tính chuẩn).
Frank Harrell

Tôi không biết nên chấp nhận câu trả lời ngắn gọn tuyệt vời này hay câu trả lời chi tiết kích thích tư duy từ @NickCox. Tôi sẽ đợi một vài ngày để xem kết thúc nào có nhiều phiếu nhất!
trev

9

Câu trả lời của @ Hotaka khá chính xác. Xếp hạng làm cho việc chuyển đổi không cần thiết; bản thân nó là một sự biến đổi mà bỏ qua các giá trị chính xác trừ khi chúng dẫn đến sự khác biệt về thứ hạng. Trong thực tế, một chút suy nghĩ, hoặc một số tính toán ví dụ, sẽ cho thấy kết quả sau khi xếp hạng logarit hoặc căn bậc hai hoặc bất kỳ phép biến đổi đơn điệu nào khác giống hệt như sau khi xếp hạng dữ liệu gốc.

Nhưng nhiều hơn có thể nói. Một trong hai hoặc suy nghĩ

  • Dữ liệu của tôi thường được phân phối và tôi có thể sử dụng các quy trình chuẩn hoặc cổ điển.

  • Hoặc tôi cần phải dùng đến các bài kiểm tra dựa trên xếp hạng.

là một chút nghiêm túc, và (nó có thể được đề xuất) quá đơn giản. Mặc dù thật khó để đề xuất chính xác những gì bạn nên làm mà không nhìn thấy dữ liệu và mục tiêu chính xác của bạn, có những quan điểm khác:

  1. Nhiều người sử dụng số liệu thống kê xem xét các phân phối cận biên (đơn biến) và đánh giá xem chúng có gần với quy tắc hay không, nhưng điều đó thậm chí có thể không liên quan. Ví dụ, tính quy phạm biên không bắt buộc đối với các thủ tục kiểu hồi quy. Đối với nhiều thủ tục, đó là cách các phương tiện hoạt động, chứ không phải cách dữ liệu hoạt động, điều đó quan trọng hơn và gần với các giả định chính.

  2. Ngay cả (nói) một kết quả quan trọng ở các mức thông thường cho xét nghiệm Shapiro - Wilk là không rõ ràng về mặt phân tích hướng dẫn sau này. Nó chỉ nói "phân phối của bạn khác biệt rõ rệt so với phân phối bình thường". Điều đó tự nó không ngụ ý rằng mức độ không bình thường mà bạn có làm cho bất cứ điều gì bạn có trong tâm trí không hợp lệ hoặc vô lý. Nó có thể chỉ có nghĩa là: đi cẩn thận, vì các giả định cơ bản không được thỏa mãn chính xác. (Trong thực tế, họ không bao giờ hài lòng chính xác, bằng mọi cách.) Thói quen tu luyện là suy nghĩ rằng tất cả các giá trị P là xấp xỉ. (Ngay cả khi các giả định về phân phối không được thực hiện, các giả định về lấy mẫu hoặc tính độc lập hoặc đo lường không có lỗi thường được ngầm định.)

  3. Mặc dù nhiều văn bản và khóa học ngụ ý khác, thống kê phi tham số là một cái gì đó của ngõ cụt vinh quang: có một loạt các bài kiểm tra đôi khi hữu ích, nhưng trong thực tế, bạn từ bỏ hầu hết các mô hình hữu ích là trung tâm của thống kê hiện đại.

  4. Outliers được đề cập ở đây, và họ luôn xứng đáng được chú ý. Chúng không bao giờ được bỏ qua chỉ vì chúng bất tiện hoặc dường như là lý do tại sao các giả định không được thỏa mãn. Đôi khi phân tích trên một quy mô chuyển đổi là cách tốt nhất về phía trước. Đôi khi một số ngoại lệ nhẹ không phải là vấn đề như người dùng ít kinh nghiệm về nỗi sợ thống kê. Với các mẫu nhỏ, dữ liệu thường sẽ trông rách rưới hoặc vón cục, ngay cả khi quy trình tạo ra được xử lý khá tốt; với các mẫu lớn, một ngoại lệ duy nhất không cần chi phối phần còn lại của dữ liệu.

  5. Luôn có tùy chọn thực hiện cả hai loại bài kiểm tra, ví dụ như Student t và Mann-Whitney-Wilcoxon. Họ không hỏi chính xác cùng một câu hỏi, nhưng thường rất dễ để xem liệu họ có cùng hướng hay không. Đó là, nếu trong thử nghiệm và thử nghiệm khác đều đưa ra tín hiệu rõ ràng rằng hai nhóm khác nhau, bạn có một chút trấn an rằng kết luận của bạn được hỗ trợ tốt (và một số biện pháp chống lại sự hoài nghi làm mất tập trung vào một hoặc một thủ tục khác được đưa ra một cách không bình thường ). Nếu hai bài kiểm tra đưa ra câu trả lời rất khác nhau, thì đây chính là bằng chứng hữu ích cho thấy bạn cần suy nghĩ rất kỹ về cách tốt nhất để phân tích dữ liệu. (Có lẽ ngoại lệ to lớn đó thực sự quyết định cách nào câu trả lời được đưa ra.)

Với kinh nghiệm, người sử dụng số liệu thống kê thường không chính thức hơn các văn bản hoặc khóa học ngụ ý họ nên có. Nếu bạn đã nói chuyện qua một phân tích với họ, bạn sẽ thường thấy rằng họ đưa ra những phán đoán nhanh như "Chắc chắn, các ô trong hộp cho thấy một số ngoại lệ nhẹ, nhưng với dữ liệu như phân tích phương sai này sẽ hoạt động tốt" hoặc "Với độ lệch được đánh dấu, thang đo logarit là lựa chọn hợp lý duy nhất ". Tôi không nghĩ rằng bạn sẽ thường thấy họ chọn các kỹ thuật dựa trên việc xét nghiệm Shapiro-Wilk có hay không có ý nghĩa với . Nói điều gì đó như thế có thể không giúp người dùng ít kinh nghiệm hơn nhiều, nhưng có vẻ đúng hơn ý tưởng rằng các số liệu thống kê cung cấp các công thức chính xác luôn phải tuân theo.P<0.05


Cảm ơn bạn đã trả lời chi tiết của bạn. Về lựa chọn phương pháp, tôi có thể tin rằng hầu hết người dùng thống kê đều khá khám phá trong lần đầu tiên nhìn vào dữ liệu của họ. Nhưng khi họ viết một bài báo, họ cần phải biện minh cho phương pháp họ đã chọn. Tôi đoán điều này một phần phụ thuộc vào lĩnh vực và liệu chúng ta có quan tâm hơn đến việc mô hình hóa nhiều dữ liệu hoặc kiểm tra một giả thuyết hay không. Đối với cái sau, một Shapiro-Wilk, bao giờ được cung cấp năng lượng, phải trông tốt hơn so với báo cáo độ lệch mà không cần kiểm tra, và sau đó tiếp tục tiến hành kiểm tra không tham số.
trev

1
Tôi khá thích ý tưởng của (5), làm cả hai bài kiểm tra tham số và không tham số. Nhưng tôi hiếm khi thấy một bài báo (ít nhất là trong tâm lý học) nói rằng "đây là kết quả của các thử nghiệm thống kê thay thế khác nhau." Họ chỉ cần chọn một phương pháp và báo cáo rằng, có thể có vấn đề, vì họ chỉ có thể chọn các phương pháp đó mang lại cho họ một kết quả đáng kể, như được nhấn mạnh trong bài viết khoa học psych đây: bit.ly/15uTFlT
Trev

Tất nhiên, việc thay thế báo cáo nhiều phương thức gần như chắc chắn sẽ dẫn đến một sự mơ hồ, tức là một số phương pháp có ý nghĩa và những phương pháp khác thì không. Bao nhiêu bạn sẽ cần để kết luận bạn đã có một hiệu ứng? 4 trên 5 đáng kể? 3 trên 5 thì sao?
trev

1
Ý kiến ​​chu đáo của bạn xứng đáng được thảo luận rất chi tiết. Kinh nghiệm của tôi xác nhận rằng mọi người trong nhiều lĩnh vực rất quan tâm để chỉ ra rằng có một phân tích chính xác duy nhất về một tập dữ liệu nhất định, đó là những gì họ đã làm.
Nick Cox
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.