Cả hai phương pháp này (LASSO so với spike-and-slab) có thể được hiểu là các vấn đề ước tính Bayes trong đó bạn chỉ định các tham số khác nhau. Một trong những khác biệt chính là phương pháp LASSO không đặt bất kỳ khối lượng điểm nào về 0 cho trước (nghĩa là các tham số gần như chắc chắn là không bằng một tiên nghiệm), trong khi phương pháp tăng đột biến đặt khối lượng điểm đáng kể trên không.
Theo ý kiến khiêm tốn của tôi, ưu điểm chính của phương pháp tăng đột biến là nó rất phù hợp với các vấn đề trong đó số lượng tham số nhiều hơn số điểm dữ liệu và bạn muốn loại bỏ hoàn toàn số lượng tham số đáng kể từ mô hình. Bởi vì phương pháp này đặt khối lượng điểm lớn về 0 trước, nó sẽ mang lại ước tính sau có xu hướng chỉ liên quan đến một tỷ lệ nhỏ của các tham số, hy vọng tránh việc khớp dữ liệu quá mức.
Khi giáo sư của bạn nói với bạn rằng trước đây không thực hiện một phương pháp lựa chọn biến, điều ông có thể có nghĩa là đây. Theo LASSO, mỗi tham số gần như chắc chắn khác không là một tiên nghiệm (nghĩa là tất cả chúng đều nằm trong mô hình). Vì khả năng cũng khác không so với hỗ trợ tham số, điều này cũng có nghĩa là mỗi cái gần như chắc chắn là khác không (ví dụ, tất cả chúng đều nằm trong mô hình). Bây giờ, bạn có thể bổ sung điều này bằng một thử nghiệm giả thuyết và loại bỏ các tham số ra khỏi mô hình theo cách đó, nhưng đó sẽ là một thử nghiệm bổ sung được áp dụng trên đầu mô hình Bayes.
Kết quả ước tính Bayes sẽ phản ánh sự đóng góp từ dữ liệu và đóng góp từ trước đó. Đương nhiên, một phân phối trước tập trung chặt chẽ hơn quanh 0 (như gai và phiến) thực sự sẽ "thu nhỏ" các ước lượng tham số kết quả, so với trước đó ít tập trung hơn (như LASSO). Tất nhiên, "thu hẹp" này chỉ là hiệu ứng của thông tin trước đó bạn đã chỉ định. Hình dạng của LASSO trước có nghĩa là nó đang thu hẹp tất cả các ước tính tham số về giá trị trung bình, liên quan đến một phẳng hơn trước.