Phương pháp chính quy
Đối với 4 kỹ thuật sau đây, Chính quy hóa L1 và Chính quy hóa L2 là không cần thiết phải nói rằng chúng phải là một phương pháp chính quy hóa. Họ thu nhỏ trọng lượng. L1 sẽ tập trung vào việc thu nhỏ một trọng lượng nhỏ hơn nếu trọng lượng có tầm quan trọng cao hơn.
Bỏ học ngăn ngừa quá mức bằng cách tạm thời loại bỏ tế bào thần kinh. Cuối cùng, nó tính toán tất cả các trọng số ở mức trung bình để trọng lượng sẽ không quá lớn đối với một tế bào thần kinh cụ thể và do đó nó là một phương pháp chính quy.
Chuẩn hóa hàng loạt không nên là một phương pháp chính quy vì mục đích chính của nó là tăng tốc độ đào tạo bằng cách chọn một lô và buộc trọng lượng được phân phối gần 0, không quá lớn, không quá nhỏ.
Chọn nó
Đối với tôi, mini-batch là điều bắt buộc bởi vì nó có thể tăng tốc quá trình và cải thiện hiệu suất của mạng mỗi lần.
L1 và L2 đều giống nhau và tôi thích L1 hơn trong mạng nhỏ.
Tốt nhất, nên bỏ học nếu có vấn đề về biến thể lớn hoặc quá mức.
Cuối cùng nhưng không kém phần quan trọng, tôi đồng ý với Neil Slater rằng nó phụ thuộc vào tình huống và sẽ không bao giờ có một giải pháp tối ưu.
Tôi khuyên bạn nên đọc nó để biết thêm thông tin. Đây là một vật liệu rất tốt. http://neuralnetworksanddeeplearning.com/chap3.html