RNN với L2 Thường xuyên ngừng học


10

Tôi sử dụng RNN hai chiều để phát hiện sự kiện xảy ra mất cân bằng. Lớp tích cực ít hơn 100 lần so với lớp âm. Mặc dù không sử dụng chính quy, tôi có thể có được độ chính xác 100% trên tập tàu và 30% cho tập xác thực. Tôi bật chuẩn hóa l2 và kết quả chỉ chính xác 30% trên tập tàu thay vì học lâu hơn và chính xác 100% trên tập xác thực.

Tôi đã nghĩ rằng có lẽ dữ liệu của tôi quá nhỏ nên chỉ để thử nghiệm tôi đã hợp nhất tập hợp xe lửa với tập kiểm tra mà trước đây tôi không sử dụng. Tình huống giống như tôi sẽ sử dụng chính quy l2, điều mà bây giờ tôi không có. Tôi nhận được 30% độ chính xác trên tàu + kiểm tra và xác nhận.

Khi sử dụng các đơn vị 128 giờ và 80 dấu thời gian trong các thử nghiệm được đề cập Khi tôi tăng số lượng đơn vị ẩn lên 256, tôi có thể điều chỉnh lại trên tàu + bộ thử nghiệm để có độ chính xác 100% nhưng vẫn chỉ 30% trên bộ xác thực.

Tôi đã thử rất nhiều lựa chọn cho siêu âm và hầu như không có kết quả. Có thể entropy chéo có trọng số đang gây ra vấn đề, trong các thí nghiệm đã cho, trọng số trên lớp dương là 5. Trong khi thử trọng lượng lớn hơn, kết quả thường kém hơn khoảng 20% ​​độ chính xác.

Tôi đã thử các tế bào LSTM và GRU, không có sự khác biệt.

Kết quả tốt nhất tôi nhận được. Tôi đã thử 2 lớp ẩn với 256 đơn vị ẩn, mất khoảng 3 ngày tính toán và 8GB bộ nhớ GPU. Tôi đã đạt được độ chính xác khoảng 40-50% trước khi nó bắt đầu hoạt động trở lại trong khi quá trình chuẩn hóa l2 được bật nhưng không quá mạnh.

Tôi sử dụng tối ưu hóa Adam, những người khác đã không làm việc rất tốt. Tính năng tôi có là đủ, vì trong khi sử dụng máy trạng thái, tôi có thể có độ chính xác 90%. Trong máy trạng thái đó, tính năng chính là tính tổng và ngưỡng dựa trên các thuộc tính tính năng khác và độ dài thay đổi của nó đôi khi là 10, đôi khi là 20 dấu thời gian nói về tính năng này.

Có một số hướng dẫn chung phải làm gì trong tình huống này? Tôi đã không thể tìm thấy bất cứ điều gì.

Câu trả lời:


11

Bài báo của Bengio et al " Về khó khăn trong việc đào tạo các mạng thần kinh tái phát " đưa ra một gợi ý về lý do tại sao việc chính quy hóa L2 có thể giết chết hiệu suất RNN. Về cơ bản, L1 / L2 thường xuyên hóa các tế bào RNN cũng ảnh hưởng đến khả năng tìm hiểu và lưu giữ thông tin của các tế bào theo thời gian.

λ1Wrecλ1

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.