Kiểm tra hoán vị so sánh một mẫu đơn với giá trị trung bình


10

Khi mọi người thực hiện các thử nghiệm hoán vị để so sánh một mẫu đơn lẻ với một giá trị trung bình (ví dụ, như bạn có thể làm với thử nghiệm t hoán vị), giá trị trung bình được xử lý như thế nào? Tôi đã thấy các triển khai có ý nghĩa và mẫu cho thử nghiệm hoán vị, nhưng không rõ họ thực sự đang làm gì dưới mui xe. Thậm chí có một cách có ý nghĩa để thực hiện kiểm tra hoán vị (ví dụ: kiểm tra t) cho một mẫu so với trung bình giả định? Hoặc, thay vào đó, họ chỉ mặc định cho một thử nghiệm không hoán vị dưới mui xe? (ví dụ: mặc dù gọi hàm hoán vị hoặc đặt cờ kiểm tra hoán vị, mặc định là kiểm tra t tiêu chuẩn hoặc hàm tương tự)

Trong thử nghiệm hoán vị hai mẫu tiêu chuẩn, một nhóm sẽ có hai nhóm và chọn ngẫu nhiên việc gán nhãn. Tuy nhiên, điều này được xử lý như thế nào khi một "nhóm" có nghĩa là giả định? Rõ ràng, một trung bình giả định không có kích thước mẫu trong chính nó. Vì vậy, cách điển hình để làm việc trung bình thành một định dạng hoán vị là gì? Là mẫu "trung bình" được giả định là một điểm duy nhất? Một mẫu có kích thước bằng với nhóm mẫu? Một mẫu có kích thước vô hạn?

Cho rằng một ý nghĩa giả định là, tốt, giả định - Tôi nói rằng về mặt kỹ thuật nó có hỗ trợ vô hạn hoặc bất kỳ hỗ trợ nào bạn muốn đảm nhận cho nó. Tuy nhiên, cả hai đều không hữu ích cho việc tính toán thực tế. Một mẫu có kích thước bằng nhau với tất cả các giá trị bằng giá trị trung bình dường như là những gì được thực hiện đôi khi với một số thử nghiệm (ví dụ: bạn chỉ cần điền vào nửa còn lại của các cặp với vị trí giả định). Điều này có một chút ý nghĩa, vì đó là mẫu có độ dài bằng nhau mà bạn thấy nếu giá trị giả định của bạn là chính xác mà không có phương sai.

Vì vậy, câu hỏi của tôi là: Trong thực tế, mọi người có thực sự mô phỏng ngẫu nhiên nhãn kiểu thử nghiệm hoán vị khi tập thứ hai là một giá trị trung bình (hoặc giá trị giả định trừu tượng tương tự) không? Nếu vậy, làm thế nào để mọi người xử lý ngẫu nhiên nhãn khi họ làm điều này?


6
Một phép thử hoán vị của một giá trị trung bình giả định cụ thể không khác với việc trừ đi giá trị trung bình giả định từ dữ liệu và kiểm tra đối với giá trị trung bình bằng không. Một bài kiểm tra ghép được thảo luận ở đây ; nó đưa ra giả định rằng dưới giá trị null, các cặp có cùng phân phối, hàm ý sự khác biệt mà thử nghiệm một mẫu tiếp theo được dựa trên được coi là đối xứng. Trên cơ sở đó, các dấu hiệu được lật ngẫu nhiên trên mỗi khác biệt ... (ctd)
Glen_b -Reinstate Monica

1
2n

Điều đó có ý nghĩa. Nhưng tôi đang suy nghĩ một chút từ các triển khai tính toán mà mọi người làm. Nếu bạn có thể biến nó thành một bài kiểm tra dấu hiệu, mọi người có thực sự bận tâm tính toán hoán vị không? Đối với bất kỳ chuỗi độ dài N nào, toàn bộ hoán vị của các dấu hiệu lật sẽ giống nhau, phải không? Vì vậy, tôi sẽ nghĩ rằng dưới mui xe, mọi người có thể chỉ đưa nó vào một phép thử nhị thức thay vì tự tạo các hoán vị tạo ra một bản phân phối nhị thức. Tôi chủ yếu tự hỏi nếu / khi có lợi ích cho việc dán lại & hoán vị so với sử dụng thử nghiệm tiêu chuẩn trong trường hợp mẫu đơn so với trường hợp trung bình.
Tên

kthxisi[k]|xi|s+11x10x10Tất cả sẽ là -11,43 hoặc +11,43. Nếu bạn xếp hạng dữ liệu tuyệt đối trước tiên, bạn thực sự sẽ kết thúc bằng bài kiểm tra xếp hạng có chữ ký của Wilcoxon, do đó, nó giống như phiên bản không được xếp hạng (dữ liệu gốc).
Glen_b -Reinstate Monica

Câu trả lời:


6

Mở rộng nhận xét của Glen_b thành một câu trả lời

Thử nghiệm hoán vị một mẫu gần đúng cho giá trị trung bình của mẫu, chống lại giả thuyết không có giá trị trung bình bằng 0, được thực hiện bằng cách gán các dấu hiệu ngẫu nhiên cho dữ liệu trong mẫu. Các giả thuyết null khác không có thể được kiểm tra bằng cách trừ trung bình null mong muốn khỏi dữ liệu.

Điều này dễ dàng nhận thấy trong nguồn của hàm R onetPermutationtrong gói DAAG. Đây là một đoạn trích của mã có liên quan, với các bình luận tôi đã thêm:

function (x, nsim) {

  ## Initialize and pre-allocate

  n <- length(x)
  dbar <- mean(x)
  absx <- abs(x)  # there's actually a bug in the code; below you'll see that the function ends up re-computing abs(x) instead of using this
  z <- array(, nsim)


  ## Run the simulation    

  for (i in 1:nsim) {                             # Do nsim times:
      mn <- sample(c(-1, 1), n, replace = TRUE)   #  1. take n random draws from {-1, 1}, where n is the length of the data to be tested
      xbardash <- mean(mn * abs(x))               #  2. assign the signs to the data and put them in a temporary variable
      z[i] <- xbardash                            #  3. save the new data in an array
  }


  ## Return the p value
  # p = the fraction of fake data that is:
  #      larger than |sample mean of x|, or
  #    smaller than -|sample mean of x|

  (sum(z >= abs(dbar)) + sum(z <= -abs(dbar)))/nsim
}
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.