Bộ điều chỉnh hoạt động hoạt động như một chức năng của đầu ra của mạng và chủ yếu được sử dụng để điều chỉnh các đơn vị ẩn, trong khi bộ điều chỉnh hoạt động, như tên đã nói, hoạt động trên các trọng số, làm cho chúng phân rã. Về cơ bản, bạn có thể biểu thị sự mất chính quy như một hàm của đầu ra ( activity_regularizer
) hoặc của trọng số ( weight_regularizer
).
Cái mới kernel_regularizer
thay thế weight_regularizer
- mặc dù nó không rõ ràng lắm từ tài liệu.
Từ định nghĩa của kernel_regularizer
:
kernel_regularizer: Hàm điều chỉnh được áp dụng cho kernel
ma trận trọng số (xem bộ điều chỉnh).
Và activity_regularizer
:
Activity_regularizer: Hàm điều chỉnh được áp dụng cho đầu ra của lớp ("kích hoạt" của nó). (xem bộ quy định).
Chỉnh sửa quan trọng : Lưu ý rằng có một lỗi trong activity_regularizer chỉ được sửa trong phiên bản 2.1.4 của Keras (ít nhất là với phần phụ trợ Tensorflow). Thật vậy, trong các phiên bản cũ hơn, hàm điều chỉnh hoạt động được áp dụng cho đầu vào của lớp, thay vì được áp dụng cho đầu ra (các kích hoạt thực tế của lớp, như dự định). Vì vậy, hãy cẩn thận nếu bạn đang sử dụng phiên bản Keras cũ hơn (trước 2.1.4), quy trình hóa hoạt động có thể không hoạt động như dự định.
Bạn có thể xem cam kết trên GitHub
Năm tháng trước François Chollet đã cung cấp một bản sửa lỗi cho bộ điều chỉnh hoạt động, sau đó được đưa vào Keras 2.1.4
kernel_regularizer
thay thế đóweight_regularizer
không?