Phản ứng "thường xuyên" là phát minh ra một giả thuyết không có dạng "không phải B" và sau đó tranh luận chống lại "không phải B", như trong phản ứng của Steffen. Đây là tương đương logic của việc đưa ra lập luận "Bạn sai, do đó tôi phải đúng". Đây là loại sử dụng của chính trị gia lý luận (tức là bên kia là xấu, do đó chúng tôi là tốt). Nó là khá khó khăn để đối phó với hơn 1 thay thế theo loại lý luận này. Điều này là do lập luận "bạn sai, do đó tôi đúng" chỉ có ý nghĩa khi cả hai không thể sai, điều này chắc chắn có thể xảy ra khi có nhiều hơn một giả thuyết thay thế.
Phản hồi "Bayes" chỉ đơn giản là tính xác suất của giả thuyết mà bạn quan tâm để kiểm tra, có điều kiện dựa trên bất kỳ bằng chứng nào bạn có. Luôn luôn điều này chứa thông tin trước, chỉ đơn giản là các giả định bạn đã thực hiện để làm cho vấn đề của bạn được đặt ra tốt (tất cả các quy trình thống kê dựa trên thông tin trước, những điều Bayes chỉ làm cho chúng rõ ràng hơn). Nó cũng thường bao gồm một số dữ liệu và chúng ta có định lý Bayes
P( H0| Dtôi) = P(H0| Tôi) P( Đ | H0Tôi)ΣkP( Hk|Tôi)P( Đ | HkTôi)
Biểu mẫu này độc lập với cái được gọi là "null" và cái được gọi là "thay thế", bởi vì bạn phải tính toán chính xác cùng một đại lượng cho mọi giả thuyết mà bạn sẽ xem xét - trước và khả năng. Điều này có nghĩa là tương tự để tính tỷ lệ lỗi "loại 1" và "loại 2" trong thử nghiệm giả thuyết Neyman Pearson, đơn giản là vì tỷ lệ lỗi "loại 2" khiH0 là "null" giống như tỷ lệ lỗi "loại 1" với H0 is the "alternative". It is only the connotations implied by the words "null" and "alternative" which make them seem different. You can show equivalence in the case of the "Neyman Pearson Lemma" when there are two hypothesis, for this is simply the likelihood ratio, which is given at once by taking the odds of the above bayes theorem:
P(H0|DI)P(H1|DI)=P(H0|I)P(H1|I)×P(D|H0I)P(D|H1I)=P(H0|I)P(H1|I)×Λ
So the decision problems are the same: accept H0 when Λ>Λ~ for some cut-off Λ~, and accept H1 otherwise. Thus, the procedures are basically different rationales for choosing the cut-off value, or decision boundary. "Bayesians" would say it should be the product of the prior odds times the loss ratio L2L1 where L1 is the "type 1 error loss" and L2 is the "type 2 error loss". These are losses, not probabilities, which describe the relative severity of making each of the two errors. The frequentist criterion is to minimise the one of the average error rates, type 1 or 2, while keeping the other fixed. But because they lead to the same form of decision boundary, we can always find an equivalent bayesian prior*loss ratio for every frequentist minimised error rate.
In short, if you are using the likelihood ratio to test your hypothesis, it does not matter what you call the null hypothesis. Switching the null to the alternative just changes the decision to Λ−1<Λ~−1 which is mathematically the same thing (you will make the same decision - but based on inverse chi-square cut-off rather than chi-square for your p-value). Playing word games with "failing to reject the null" just doesn't apply to the hypothesis test, because it is a decision, so if there are only two options, then "failing to reject the null" means the same thing as "accepting the null".