Tôi nghĩ rằng câu trả lời ở đây cũng giống như mọi nơi trong khoa học dữ liệu: nó phụ thuộc vào dữ liệu :-)
Có thể xảy ra một phương pháp tốt hơn một phương pháp khác (ở đây https://arimo.com/data-science/2016/bayesian-optimization-hyperparameter-tuning/ mọi người so sánh tối ưu hóa siêu tham số Bayesian và đạt được kết quả tốt hơn trong thử thách kaggle tội phạm ở San Francisco so với với tìm kiếm ngẫu nhiên), tuy nhiên tôi nghi ngờ rằng có một quy tắc chung cho điều đó. Bạn có thể thấy một gif đẹp ở đây ( http://blog.revolutionanalytics.com/2016/06/bayesian-optimization-of-machine-learning-models.html ) nơi mọi người hiển thị 'đường dẫn' mà tối ưu hóa Bayes có trong cảnh quan nói riêng về siêu âm, có vẻ như nó không vượt trội so với tìm kiếm ngẫu nhiên nói chung ...
Tôi nghĩ lý do tại sao mọi người có xu hướng sử dụng tối ưu hóa siêu tham số Bayes là vì nó chỉ cần ít bước đào tạo hơn để đạt được kết quả tương đương so với tìm kiếm ngẫu nhiên với số lượng thử nghiệm đủ cao.
Tóm tắt trong một câu:
* Khi thời gian đào tạo là quan trọng, hãy sử dụng tối ưu hóa siêu tham số Bayes và nếu thời gian không phải là vấn đề, hãy chọn một trong cả hai ... *
Thông thường tôi quá lười biếng để triển khai công cụ Bayes với Quy trình Gaussian nếu tôi có thể đạt được kết quả tương tự với tìm kiếm ngẫu nhiên ... Tôi chỉ huấn luyện Gradient Bossting trên dữ liệu 'vài', vì vậy đối với tôi, thời gian không phải là vấn đề ...