Ý nghĩa của sự phụ thuộc tích cực của Viking là điều kiện để sử dụng phương pháp thông thường để kiểm soát FDR


36

Stewamini và Hochberg đã phát triển phương pháp đầu tiên (và vẫn được sử dụng rộng rãi nhất, tôi nghĩ) để kiểm soát tỷ lệ phát hiện sai (FDR).

Tôi muốn bắt đầu với một loạt các giá trị P, mỗi giá trị để so sánh khác nhau và quyết định giá trị nào đủ thấp để được gọi là "khám phá", điều khiển FDR đến một giá trị được chỉ định (giả sử 10%). Một giả định của phương pháp thông thường là tập hợp các phép so sánh là độc lập hoặc có "sự phụ thuộc tích cực" nhưng tôi không thể hiểu chính xác cụm từ đó có nghĩa gì trong bối cảnh phân tích một tập hợp các giá trị P.


1
Cảm ơn vì đã trao tiền thưởng cho câu trả lời của tôi, Harvey! Bạn sẽ nói nó giải quyết vấn đề này cho bạn, hay bạn đang tìm kiếm một giải trình chi tiết hơn? Tôi nhận thấy rằng bạn chưa chấp nhận bất kỳ câu trả lời nào, đó là lý do tại sao tôi muốn làm rõ. Cảm ơn. Có lẽ bạn có thể nhận xét hoặc chỉnh sửa Q của bạn để làm rõ những gì bạn vẫn muốn làm rõ.
amip nói phục hồi Monica

2
@amoeba. Hạn chót cho tiền thưởng là ở tôi, và câu trả lời của bạn là tốt nhất. Thành thật mà nói, điều đó chưa bao giờ xảy ra với tôi vào lúc đó rằng việc đưa tiền thưởng cũng không chấp nhận câu trả lời. Nhưng tôi biết đó là những điều khác biệt (tôi sẽ đổ lỗi cho máy bay phản lực). Nhưng một câu trả lời đầy đủ thực sự cần bao gồm các ví dụ thực tế trong đó tập hợp các giá trị P cả làm và không có sự phụ thuộc tích cực. Tôi sẽ không chấp nhận câu trả lời trong một tuần với hy vọng ai đó có thể đưa ra cả hai loại ví dụ, vì vậy ý ​​nghĩa rất rõ ràng.
Harvey Motulsky

Đây có lẽ không thực sự là một ví dụ thỏa mãn, nhưng thực sự dễ dàng đưa ra các giá trị p có và không có sự phụ thuộc tích cực nếu chúng ta nghĩ về việc thực hiện các thử nghiệm một đầu trên các biến tương quan. Hãy tưởng tượng tôi đang kiểm tra xem A = 0 và cả B = 0 so với các lựa chọn thay thế một đuôi (A> 0 và B> 0). Tưởng tượng thêm rằng B phụ thuộc vào A. Ví dụ, hãy tưởng tượng tôi muốn biết liệu một quần thể có nhiều phụ nữ hơn nam giới hay không, và nếu dân số đó chứa nhiều buồng trứng hơn tinh hoàn. Rõ ràng biết giá trị p của câu hỏi đầu tiên thay đổi kỳ vọng của chúng tôi về giá trị p cho câu hỏi thứ hai
Jacob Socolar

Cảm ơn, Harvey. Tôi hy vọng rõ ràng rằng tôi đã không cố gắng thúc đẩy bạn chấp nhận câu trả lời của tôi (!!) mà là để làm rõ loại câu trả lời bạn đang tìm kiếm trong chủ đề này, và những gì bạn vẫn muốn làm rõ. Tôi không thực sự là một chuyên gia về chủ đề này, chỉ cố gắng để có ý nghĩa của nó.
amip nói rằng Phục hồi Monica

Cả hai giá trị p đều thay đổi theo cùng một hướng và đây là PRD. Nhưng nếu tôi thay vào đó kiểm tra giả thuyết thứ hai rằng dân số 2 có nhiều tinh hoàn hơn buồng trứng, thì kỳ vọng của chúng tôi về giá trị p thứ hai sẽ giảm khi giá trị p đầu tiên tăng. Đây không phải là PRD.
Jacob Socolar

Câu trả lời:


20

Từ câu hỏi của bạn và đặc biệt là ý kiến của bạn để trả lời khác, có vẻ như với tôi rằng bạn đang chủ yếu là nhầm lẫn về "bức tranh lớn" ở đây: cụ thể là, những gì hiện "sự phụ thuộc tích cực" tham khảo trong bối cảnh này ở tất cả - như trái ngược với những gì là ý nghĩa kỹ thuật của điều kiện PRDS. Vì vậy, tôi sẽ nói về bức tranh lớn.

Bức tranh lớn

Hãy tưởng tượng rằng bạn đang kiểm tra các giả thuyết null và tưởng tượng rằng tất cả chúng đều đúng. Mỗi giá trị N p là một biến ngẫu nhiên; lặp đi lặp lại thử nghiệm nhiều lần sẽ mang lại giá trị p khác nhau mỗi lần, vì vậy người ta có thể nói về phân phối giá trị p (dưới giá trị null). Điều nổi tiếng là đối với bất kỳ thử nghiệm nào, phân phối giá trị p dưới giá trị null phải đồng nhất; do đó, trong trường hợp thử nghiệm bội số, tất cả N phân phối biên của giá trị p sẽ đồng nhất.NN ppppNp

Nếu tất cả các dữ liệu và tất cả các kiểm tra độc lập với nhau, sau đó các doanh N phân phối chiều của p -values cũng sẽ thống nhất. Điều này sẽ đúng, ví dụ như trong một tình huống "thạch-đậu" cổ điển khi một loạt các thứ độc lập đang được thử nghiệm:NNp

đậu xanh thạch

Tuy nhiên, nó không phải như thế. Bất kỳ cặp giá trị nào về nguyên tắc có thể tương quan, tích cực hoặc tiêu cực, hoặc bị phụ thuộc theo một cách phức tạp hơn. Xem xét thử nghiệm tất cả các khác biệt về cặp đôi về phương tiện giữa bốn nhóm; đây là N = 4 3 / 2 = 6 bài kiểm tra. Mỗi một trong sáu giá trị p được phân phối đồng đều. Nhưng tất cả chúng đều có mối tương quan tích cực: nếu (trên một nỗ lực nhất định) nhóm A tình cờ có ý nghĩa đặc biệt thấp, thì so sánh A-vs-B có thể mang lại giá trị p thấp (điều này sẽ là dương tính giả). Nhưng trong tình huống này, có khả năng A-vs-C, cũng như A-vs-D, cũng sẽ mang lại p thấppN=43/2=6pppgiá trị. Vì vậy, giá trị rõ ràng là không độc lập và hơn nữa chúng có mối tương quan tích cực với nhau.p

Đây là, không chính thức, những gì "phụ thuộc tích cực" đề cập đến.

Đây dường như là một tình huống phổ biến trong nhiều thử nghiệm. Một ví dụ khác sẽ là kiểm tra sự khác biệt trong một số biến có tương quan với nhau. Có được sự khác biệt đáng kể ở một trong số họ làm tăng cơ hội có được sự khác biệt đáng kể ở người khác.

Thật khó để đưa ra một ví dụ tự nhiên trong đó giá trị sẽ "phụ thuộc tiêu cực". @ user43849 nhận xét trong các nhận xét ở trên rằng đối với các bài kiểm tra một phía thật dễ dàng:p

Hãy tưởng tượng tôi đang kiểm tra xem A = 0 và cả B = 0 so với các lựa chọn thay thế một đầu (A> 0 và B> 0). Tưởng tượng thêm rằng B phụ thuộc vào A. Ví dụ, hãy tưởng tượng tôi muốn biết liệu một quần thể có nhiều phụ nữ hơn nam giới hay không, và nếu dân số đó chứa nhiều buồng trứng hơn tinh hoàn. Rõ ràng biết giá trị p của câu hỏi đầu tiên thay đổi kỳ vọng của chúng tôi về giá trị p cho câu hỏi thứ hai. Cả hai giá trị p đều thay đổi theo cùng một hướng và đây là PRD. Nhưng nếu tôi thay vào đó kiểm tra giả thuyết thứ hai rằng dân số 2 có nhiều tinh hoàn hơn buồng trứng, thì kỳ vọng của chúng tôi về giá trị p thứ hai sẽ giảm khi giá trị p đầu tiên tăng. Đây không phải là PRD.

Nhưng cho đến nay tôi đã không thể đưa ra một ví dụ tự nhiên với điểm null.


Bây giờ, công thức toán học chính xác của "sự phụ thuộc tích cực" đảm bảo tính hợp lệ của thủ tục Stewamini-Hochberg là khá khó khăn. Như đã đề cập trong các câu trả lời khác, tài liệu tham khảo chính là Stewamini & Yekutieli 2001 ; chúng cho thấy rằng thuộc tính PRDS ("phụ thuộc hồi quy dương vào từng nhóm từ một tập hợp con") đòi hỏi thủ tục của Stewamini-Hochberg. Đây là một hình thức thoải mái của tài sản PRD ("phụ thuộc hồi quy dương"), có nghĩa là PRD ngụ ý PRDS và do đó cũng đòi hỏi thủ tục của Stewamini-Hochberg.

Để biết các định nghĩa về PRD / PRDS, hãy xem câu trả lời của @ user43849 (+1) và giấy Stewamini & Yekutieli. Các định nghĩa khá kỹ thuật và tôi không có hiểu biết trực quan tốt về chúng. Trên thực tế, B & Y cũng đề cập đến một số khái niệm liên quan khác: tổng tích cực đa biến của đơn hàng hai (MTP2) và liên kết tích cực. Theo B & Y, chúng có liên quan như sau (sơ đồ là của tôi):

PRD, PRDS, MTP2 và PA

MTP2 ngụ ý PRD ngụ ý PRDS đảm bảo tính chính xác của quy trình BH. PRD cũng ngụ ý PA, nhưng PA PRDS.


Một ví dụ về sự phụ thuộc tiêu cực sẽ là bài hoc cặp xét nghiệm sau đây, nói rằng, một oneway ANOVA của ba nhóm, nơi , nhưng ˉ x B < μ B , trong khi ˉ x Mộtμ A , và ˉ x CL C , vì vậy trong khi p Một  vs  Bít có khả năng từ chối (vì theo H 0 | ˉ x Một - ˉμA<μB<μCx¯B<μBx¯AμAx¯CμCpA vs. BH0 ), nhưng do phụ thuộcpB so với Cnhiềukhả năng từ chối? |x¯Ax¯B|<|x¯Bx¯C|pB vs. C
Alexis

1
@Alexis Tôi đã tự mình suy nghĩ theo những dòng này, nhưng tôi không nghĩ rằng nó hoạt động bởi vì chúng ta cần xem xét những gì xảy ra dưới null . Trong trường hợp này, null là , và do đó phá vỡ lập luận của bạn xuống. μA=μB=μC
amip nói rằng Phục hồi lại

Vì vậy, nếu khó có thể nghĩ đến các tình huống phụ thuộc tiêu cực, thì thủ tục Stewamini-Hochberg có hiệu lực đối với các tình huống như kiểm tra cặp sau bài hoc sau khi bác bỏ giả thuyết khống chế omnibus về các nhóm độc lập (ví dụ: oneway không bị chặn ANOVA, Cochran's Q, Kruskal- Wallis, v.v.)?
Alexis

@Alexis Tôi tin rằng điều này là chính xác, vâng. Tôi vẫn đang cố gắng đưa ra một ví dụ tự nhiên với sự phụ thuộc tiêu cực ...
amip nói rằng Rebstate Monica

ĐÁ! Bạn đi gái! :) (Dành cho ý nghĩa không có giới tính của từ "cô gái";).
Alexis

18

Câu hỏi tuyệt vời! Chúng ta hãy lùi lại và hiểu những gì Bonferroni đã làm, và tại sao cần thiết cho Stewamini và Hochberg để phát triển một giải pháp thay thế.

Nó đã trở nên cần thiết và bắt buộc trong những năm gần đây để thực hiện một quy trình gọi là hiệu chỉnh nhiều thử nghiệm. Điều này là do số lượng xét nghiệm ngày càng tăng được thực hiện đồng thời với khoa học thông lượng cao, đặc biệt là về di truyền học với sự ra đời của toàn bộ nghiên cứu về bộ gen (GWAS). Xin lỗi tham khảo di truyền học, vì đó là lĩnh vực công việc của tôi. Nếu chúng tôi thực hiện đồng thời 1.000.000 thử nghiệm với , chúng tôi sẽ mong đợi 50 , 000 kết quả dương tính giả. Điều này là rất lớn, và do đó chúng ta phải kiểm soát mức độ quan trọng được đánh giá. Hiệu chỉnh bonferroni, nghĩa là chia ngưỡng chấp nhận (0,05) cho số lượng thử nghiệm độc lập ( 0,05 / MP=0.0550,000 sửa lỗi cho tỷ lệ lỗi khôn ngoan của gia đình ( F W E R ).(0.05/M)FWER

Điều này đúng vì FWER có liên quan đến tỷ lệ lỗi thử khôn ngoan ( ) bằng phương trình F W E R = 1 - ( 1 - T W E R ) M . Nghĩa là, 100 phần trăm trừ đi 1 trừ đi tỷ lệ lỗi thông minh thử nghiệm được nâng lên thành sức mạnh của số lượng thử nghiệm độc lập được thực hiện. Giả định rằng ( 1 - 0,05 ) 1 / M = 1 - 0,05TWERFWER=1(1TWER)M choTWER0,05(10.05)1/M=10.05M , là giá trị P chấp nhận được điều chỉnh cho M thử nghiệm hoàn toàn độc lập.TWER0.05M

Vấn đề mà chúng ta gặp phải bây giờ, cũng như Stewamini và Hochberg, là không phải tất cả các xét nghiệm đều hoàn toàn độc lập. Do đó, hiệu chỉnh Bonferroni, mặc dù mạnh mẽ và linh hoạt, là một sự quá mức . Xem xét trường hợp trong di truyền học, nơi hai gen được liên kết trong một trường hợp gọi là mất cân bằng liên kết; nghĩa là, khi một gen có đột biến, một gen khác có nhiều khả năng được biểu hiện. Đây rõ ràng không phải là các thử nghiệm độc lập, mặc dù trong hiệu chỉnh bonferroni chúng được giả định là . Đây là lúc chúng ta bắt đầu thấy rằng việc chia giá trị P cho M đang tạo ra một ngưỡng thấp giả tạo do các thử nghiệm độc lập giả định thực sự ảnh hưởng lẫn nhau, ergo tạo ra một M quá lớn so với tình huống thực tế của chúng ta, nơi mọi thứ phát sinh độc lập.

Thủ tục được đề xuất bởi Stewamini và Hochberg, và được tăng cường bởi Yekutieli (và nhiều người khác) là tự do hơn Bonferroni, và trên thực tế, hiệu chỉnh Bonferroni chỉ được sử dụng trong các nghiên cứu lớn nhất hiện nay. Điều này là do, trong FDR, chúng tôi giả định một số sự phụ thuộc lẫn nhau vào một phần của các thử nghiệm và do đó, một M quá lớn và không thực tế và loại bỏ kết quả mà chúng tôi, trong thực tế, quan tâm. Do đó, trong trường hợp 1000 bài kiểm tra không độc lập, M thực sự sẽ không phải là 1000, mà là một cái gì đó nhỏ hơn vì phụ thuộc. Do đó, khi chúng tôi chia 0,05 cho 1000, ngưỡng quá nghiêm ngặt và tránh một số thử nghiệm có thể được quan tâm.

Tôi không chắc liệu bạn có quan tâm đến các cơ chế đằng sau việc kiểm soát sự phụ thuộc hay không, mặc dù nếu bạn đã liên kết bài báo Yekutieli để bạn tham khảo. Tôi cũng sẽ đính kèm một vài thứ khác cho thông tin và sự tò mò của bạn.

Hy vọng điều này đã giúp một cách nào đó, nếu tôi đã trình bày sai bất cứ điều gì xin vui lòng cho tôi biết.

~ ~ ~

Tài liệu tham khảo

Bài viết của Yekutieli về sự phụ thuộc tích cực - http://www.math.tau.ac.il/~ybenja/MyPapers/benjamini_yekutieli_ANNSTAT2001.pdf

(xem 1.3 - Vấn đề.)

Giải thích về Bonferroni và những điều đáng quan tâm khác - Các đánh giá về Di truyền học Tự nhiên. Kiểm tra sức mạnh và ý nghĩa thống kê trong các nghiên cứu di truyền quy mô lớn - Pak C Sham và Shaun M Purcell

(xem hộp 3.)

http://en.wikipedia.org/wiki/F Familywise_error_rate

CHỈNH SỬA:

Trong câu trả lời trước của tôi, tôi đã không xác định trực tiếp sự phụ thuộc tích cực, đó là những gì được hỏi. Trong bài báo của Yekutieli, phần 2.2có tiêu đề Sự phụ thuộc tích cực và tôi đề nghị điều này vì nó rất chi tiết. Tuy nhiên, tôi tin rằng chúng ta có thể làm cho nó ngắn gọn hơn một chút.

I0I0

PRDS

XI0XI0XI0xX

P

Tóm lại, thuộc tính phụ thuộc dương thực sự là thuộc tính của phụ thuộc hồi quy dương của toàn bộ tập hợp thống kê kiểm tra dựa trên tập hợp thống kê kiểm tra null thực sự của chúng tôi và chúng tôi kiểm soát FDR 0,05; do đó, khi các giá trị P đi từ dưới lên (thủ tục tăng dần), chúng sẽ tăng xác suất là một phần của tập hợp null.

Câu trả lời trước đây của tôi trong các ý kiến ​​về ma trận hiệp phương sai không phải là không chính xác, chỉ là một chút mơ hồ. Tôi hy vọng điều này sẽ giúp một chút nữa.


6
Cảm ơn. Bạn cung cấp một cái nhìn tổng quan rõ ràng về việc kiểm soát tỷ lệ lỗi khôn ngoan của gia đình (Bonferroni, v.v.) so với kiểm soát FDR, nhưng tôi vẫn không hiểu "phụ thuộc tích cực" nghĩa là gì. Hãy xem xét rằng tôi có 1000 giá trị P, biểu hiện thử nghiệm của 1000 gen khác nhau so sánh những người có và không mắc một số bệnh. Tôi sử dụng phương pháp BH để quyết định so sánh nào là "khám phá". "Phụ thuộc tích cực" có nghĩa là gì trong bối cảnh này?
Harvey Motulsky

9
Một lưu ý nhỏ nhưng quan trọng: Bonferroni hoàn toàn không có giả định nào về sự độc lập. Trong thực tế, nó sẽ bao gồm chính xác trong trường hợp loại trừ lẫn nhau, theo một cách nào đó, nó nằm cách xa sự độc lập như bạn có thể nhận được. Có một thủ tục hiệu chỉnh (Sidak) mà giả định độc lập và sẽ mạnh mẽ hơn nữa kiểm soát FWER dưới giả định rằng. Một số khía cạnh khác của câu trả lời này cũng có thể sử dụng một số thao tác chạm nhẹ.
Đức hồng y

2
@ChrisC Tôi vẫn không hiểu. "Ma trận hiệp phương sai giữa các phần tử"? Tôi bắt đầu với một danh sách các giá trị P và muốn quyết định giá trị nào đủ thấp để được gọi là "khám phá" đáng theo dõi (với FDR được kiểm soát). Các yếu tố của ma trận hiệp phương sai là gì? Giả sử mỗi giá trị P đang so sánh biểu hiện của một gen cụ thể giữa các nhóm và có nhiều gen như vậy. Đối với mỗi gen, khi kiểm tra so sánh các nhóm dẫn đến giá trị P. Điều đó có nghĩa là gì, trong tình huống này, đối với "các yếu tố thay đổi cùng nhau" hoặc có "mối tương quan tích cực giữa chúng"?
Harvey Motulsky

2
@ChrisC Cảm ơn. Nó trở nên rõ ràng hơn, nhưng tôi vẫn không thực sự nắm bắt được giả định này có nghĩa gì. Toàn bộ quan điểm của việc biết về giả định đằng sau phương pháp này là để biết khi nào bạn có khả năng vi phạm nó. Vì vậy, nó sẽ giúp liệt kê một số tình huống trong đó giả định là không đúng sự thật. Khi nào giá trị P thấp hơn sẽ không được liên kết với xác suất cao hơn của giả thuyết null là sai?
Harvey Motulsky

1
Điều này không trả lời câu hỏi.
Alexis

10

Tôi thấy bản in trước này hữu ích trong việc hiểu ý nghĩa. Cần phải nói rằng tôi đưa ra câu trả lời này không phải với tư cách là một chuyên gia trong chủ đề, mà như một nỗ lực tìm hiểu để được cộng đồng xem xét và xác nhận.

Cảm ơn Amoeba vì những quan sát rất hữu ích về sự khác biệt giữa PRD và PRDS, xem bình luận

pCpC

  1. qC
  2. rqrqri<qii
  3. rC

C

pp1...pn<B1...BnpCB1...Bn

pipipip1...pnp1...pnpi

p1...pn

pnpn<BBpn<Bpn<BB

Chỉnh sửa để thêm:

Đây là một ví dụ giả định về một hệ thống không phải là PRDS (mã R bên dưới). Logic là khi các mẫu a và b rất giống nhau, nhiều khả năng sản phẩm của họ sẽ không điển hình. Tôi nghi ngờ rằng hiệu ứng này (và không phải là sự không đồng nhất của các giá trị p dưới giá trị null để (a*b), (c*d)so sánh) đang dẫn đến mối tương quan nghịch trong các giá trị p, nhưng tôi không thể chắc chắn. Hiệu ứng tương tự xuất hiện nếu chúng tôi thực hiện kiểm tra t để so sánh lần thứ hai (chứ không phải Wilcoxon), nhưng phân phối giá trị p vẫn không đồng nhất, có lẽ là do vi phạm giả định quy tắc.

ab <- rep(NA, 100000)  # We'll repeat the comparison many times to assess the relationships among p-values.
abcd <- rep(NA, 100000)

for(i in 1:100000){
  a <- rnorm(10)    # Draw 4 samples from identical populations.
  b <- rnorm(10)
  c <- rnorm(10)
  d <- rnorm(10)

  ab[i] <- t.test(a,b)$p.value          # We perform 2 comparisons and extract p-values
  abcd[i] <- wilcox.test((a*b),(c*d))$p.value
}

summary(lm(abcd ~ ab))    # The p-values are negatively correlated

ks.test(ab, punif)    # The p-values are uniform for the first test
ks.test(abcd, punif)   # but non-uniform for the second test.
hist(abcd)

Tôi xin lỗi, nhưng tôi không thực sự làm theo điều này.
Harvey Motulsky

Liệu đoạn cuối cùng mới làm sáng tỏ tất cả?
Jacob Socolar

@ Amoeba, yeah, tôi nghĩ bạn đúng. Các bài báo Yekutieli được liên kết bởi các áp phích trước là phương pháp điều trị PRDS. Theo như tôi có thể nói, PRD là cùng một thuộc tính, nhưng trên tất cả các thống kê kiểm tra (hoặc giá trị p), không chỉ là tập hợp con tương ứng với null thực.
Jacob Socolar

1
Yup, bạn hoàn toàn đúng. Chỉnh sửa ngay.
Jacob Socolar

1
Ví dụ thú vị, nhưng hiệu ứng thì cực yếu: Tôi nhận được hệ số tương quan (giữa ab và abcd) trong khoảng -0,03 ... Nhưng tôi không hiểu: tại sao bạn lại nói rằng "khi các mẫu a và b rất giống nhau , nhiều khả năng sản phẩm của họ sẽ không điển hình "?
amip nói rằng Phục hồi lại

4

Trong bài báo của họ , Stewamini và Yekutieli cung cấp một số ví dụ về mức độ phụ thuộc hồi quy dương (PRD) khác với việc chỉ liên quan tích cực. Quy trình kiểm soát FDR dựa trên một dạng PRD yếu hơn mà họ gọi là PRDS (tức là PRD trên mỗi loại từ một tập hợp con của các biến).

Sự phụ thuộc tích cực ban đầu được đề xuất trong cài đặt hai biến của Lehmann , nhưng phiên bản đa biến của khái niệm này, được gọi là phụ thuộc hồi quy dương là những gì có liên quan đến nhiều thử nghiệm.

Đây là một đoạn trích có liên quan từ pg.6

X(X1,X2)Xh(X1)X2h(X1)


2

Sự phụ thuộc tích cực trong trường hợp này có nghĩa là tập hợp các bài kiểm tra có mối tương quan tích cực. Ý tưởng sau đó là nếu các biến trong tập hợp các bài kiểm tra mà bạn có giá trị P có tương quan dương thì mỗi biến không độc lập .

Ví dụ, nếu bạn nghĩ lại về hiệu chỉnh giá trị p Bonferroni, bạn có thể đảm bảo rằng tỷ lệ lỗi loại 1 nhỏ hơn 10% so với 100 thử nghiệm độc lập thống kê bằng cách đặt ngưỡng ý nghĩa của bạn thành 0,1 / 100 = 0,001. Nhưng, điều gì sẽ xảy ra nếu mỗi trong số 100 bài kiểm tra đó tương quan theo một cách nào đó? Sau đó, bạn chưa thực sự thực hiện 100 bài kiểm tra riêng biệt.

Trong FDR, ý tưởng hơi khác so với hiệu chỉnh Bonferroni. Ý tưởng là để đảm bảo rằng chỉ một phần trăm nhất định (nói 10%) trong số những điều bạn tuyên bố có ý nghĩa được tuyên bố sai. Nếu bạn có các dấu tương quan (phụ thuộc dương) trong tập dữ liệu của mình, giá trị FDR được chọn dựa trên tổng số thử nghiệm bạn thực hiện (nhưng số lượng thử nghiệm độc lập thống kê thực tế nhỏ hơn). Bằng cách này, sẽ an toàn hơn khi kết luận rằng tỷ lệ phát hiện sai là khai báo sai 10% hoặc ít hơn các thử nghiệm trong bộ giá trị P của bạn.

Xin vui lòng xem chương sách này để thảo luận về sự phụ thuộc tích cực.


2
Bạn giải thích FDR so với Bonferroni, nhưng không định nghĩa "sự phụ thuộc tích cực" mà chỉ cần điều chỉnh lại thành "tương quan tích cực" nhưng tôi không hiểu. Hãy xem xét rằng tôi có 1000 giá trị P, biểu hiện thử nghiệm của 1000 gen khác nhau so sánh những người có và không mắc một số bệnh. Tôi sử dụng phương pháp BH để quyết định so sánh nào là "khám phá". "Phụ thuộc tích cực" có nghĩa là gì trong bối cảnh này?
Harvey Motulsky

5
Câu trả lời này là sai. Sự phụ thuộc hồi quy tích cực và liên quan tích cực là khác nhau. Bài báo của Stewamini Yekutieli giải thích điều này và cũng cung cấp tài liệu tham khảo. "Tuy nhiên, PRDS và hiệp hội tích cực không ngụ ý lẫn nhau và sự khác biệt có tầm quan trọng nhất định. Ví dụ, phân phối bình thường đa biến có liên quan tích cực với tất cả các mối tương quan là không âm. Không phải tất cả các mối tương quan đều không mang tính bất khả kháng đối với thuộc tính PRDS ( xem Phần 3.1, Trường hợp 1 dưới đây). " Xem pg. 6 tờ giấy.
dùng3303
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.