Có bất kỳ chức năng kích hoạt có thể làm cho bình thường hóa hàng loạt lỗi thời?


7

Trong khi học bình thường hóa hàng loạt, tôi đã nghĩ tại sao chúng ta không thể giải quyết "vấn đề tỷ lệ gradient" bằng cách sử dụng một chức năng kích hoạt phù hợp?

Giống như chúng ta không thể trì hoãn và mở rộng chức năng kích hoạt thay vì nhân rộng toàn bộ dữ liệu và đảm bảo rằng phương sai được bảo toàn thông qua nó?


1
Tôi đoán bạn hơi sai, bạn đang nói về bình thường hóa dữ liệu chứ không phải bình thường hóa hàng loạt, trước đây là một bước xử lý trước.
Truyền thông

Tôi đã nói về việc bình thường hóa ở mỗi lớp "tự động" hoặc bình thường hóa ở đầu và giữ hình dạng dữ liệu qua các lớp.
Totem

Câu trả lời:


6

Những gì bạn mô tả nghe có vẻ rất giống các đơn vị tuyến tính theo tỷ lệ theo tỷ lệ (SELU), đó là cốt lõi của Mạng thần kinh tự chuẩn hóa , được trình bày tại NIPS 2017.

Một tóm tắt ngắn từ đây là:

Nếu giá trị trung bình và phương sai của đầu vào nằm trong phạm vi nhất định, thì giá trị trung bình và phương sai của đầu ra cũng sẽ nằm trong phạm vi đó và (2) hội tụ đến một điểm cố định sau khi lặp lại chức năng kích hoạt.

Bạn có thể muốn có một cái nhìn vào các bình luận bài viết reddit . Nếu bạn muốn hiểu đầy đủ về chúng, bạn có thể tiếp tục với phần phụ lục dài 90 trang của bản in sẵn arxiv .

Họ đã nhận được rất nhiều sự chú ý khi họ được trình bày, nhưng tôi nghĩ rằng họ đã không đáp ứng được kỳ vọng, vì dường như không ai nói về họ gần đây trên internet .


Nó được xuất bản sáu tháng sau khi xuất bản sách giáo khoa của tôi. Tầm quan trọng để theo dõi tin tức! Cảm ơn các chi tiết. Có một lý do tại sao "dường như không ai nói về họ"?
Totem

Tôi không biết có lý do kỹ thuật hay không, nhưng có lẽ mọi người đang nghi ngờ do thực tiễn " học sinh tốt nghiệp " gần đây, điều này khiến việc nhận con nuôi trở nên khó khăn hơn trừ khi kết quả SOTA ngoạn mục và nhất quán.
ncasas

Kinh nghiệm của tôi với eluxác nhận tuyên bố cuối cùng của bạn: hiệu suất của nó rất giống relu, không tốt hơn hoặc kém hơn, nhưng chậm hơn.
Maxim

Tôi đã bỏ lỡ câu trả lời của bạn @ncasas, cảm ơn tôi sẽ kiểm tra xem.
Totem
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.